首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 453 毫秒
1.
针对航拍图像中的车辆目标尺度小、特征不明显导致目标检测困难的问题,提出一种改进YOLOv3的航拍车辆目标检测方法。将空间金字塔池化模块引入到特征提取网络中,丰富卷积特征的表达能力;设计4个不同尺度的卷积特征金字塔,并通过卷积特征融合机制来实现对多层级卷积特征的融合,在融合后的卷积特征金字塔上进行目标检测。在航拍图像车辆目标检测数据集上的测试结果表明,与原YOLOv3相比,改进后的算法能够有效地提高对航拍图像中车辆目标检测效果的查全率以及查准率,并将平均均值精度(mean average precision, mAP)提升了4.5百分点。  相似文献   

2.
目的 细粒度图像分类是计算机视觉领域具有挑战性的课题,目的是将一个大的类别分为更详细的子类别,在工业和学术方面都有着十分广泛的研究需求。为了改善细粒度图像分类过程中不相关背景干扰和类别差异特征难以提取的问题,提出了一种将目标检测方法YOLOv3(you only look once)和双线性融合网络相结合的细粒度分类优化算法,以此提高细粒度图像分类的性能。方法 利用重新训练过的目标检测算法YOLOv3粗略确定目标在图像中的位置;使用背景抑制方法消除目标以外的信息干扰;利用融合不同通道、不同层级卷积层特征的方法对经典的细粒度分类算法双线性卷积神经网络(bilinear convolutional neural network,B-CNN)进行改进,优化分类性能,通过融合双线性网络中不同卷积层的特征向量,得到更加丰富的互补信息,从而提高细粒度分类精度。结果 实验结果表明,在CUB-200-2011(Caltech-UCSD Birds-200-2011)、Cars196和Aircrafts100数据集中,本文算法的分类准确率分别为86.3%、92.8%和89.0%,比经典的B-CNN细粒度分类算法分别提高了2.2%、1.5%和4.9%,验证了本文算法的有效性。同时,与已有细粒度图像分类算法相比也表现出一定的优势。结论 改进算法使用YOLOv3有效滤除了大量无关背景,通过特征融合方法来改进双线性卷积神经分类网络,丰富特征信息,使分类的结果更加精准。  相似文献   

3.
针对遥感图像中背景复杂度高、目标尺寸多样和小目标存在过多所导致的目标检测精度较低的问题,提出一种改进YOLOv5的遥感图像目标检测算法。该算法在主干网络引入通道-全局注意力机制(CGAM)以增强对不同尺度目标的特征提取能力和抑制冗余信息的干扰。引入密集上采样卷积(DUC)模块扩张低分辨率卷积特征图,有效增强不同卷积特征图的融合效果。将改进算法应用于公开遥感数据集RSOD中,改进YOLOv5算法平均精度AP值达到78.5%,较原算法提升了3.1个百分点。实验结果证明,改进后的算法能有效提高遥感图像目标检测精度。  相似文献   

4.
王程  刘元盛  刘圣杰 《计算机工程》2023,49(2):296-302+313
行人检测在无人驾驶环境感知领域具有重要应用。现有行人检测算法多数只关注普通大小的行人目标,忽略了小目标行人特征信息过少的问题,从而造成检测精度低、应用于嵌入式设备中实时性不高等情况。针对该问题,提出一种小目标行人检测算法YOLOv4-DBF。引用深度可分离卷积代替YOLOv4算法中的传统卷积,以降低模型的参数量和计算量,提升检测速度和算法实时性。在YOLOv4骨干网络中的特征融合部分引入scSE注意力模块,对输入行人特征图的重要通道和空间特征进行增强,促使网络学习更有意义的特征信息。对YOLOv4颈部中特征金字塔网络的特征融合部分进行改进,在增加少量计算量的情况下增强对图像中行人目标的多尺度特征学习,从而提高检测精度。在VOC07+12+COCO数据集上进行训练和验证,结果表明,相比原YOLOv4算法,YOLOv4-DBF算法的AP值提高4.16个百分点,速度提升27%,将该算法加速部署在无人车中的TX2设备上进行实时测试,其检测速度达到23FPS,能够有效提高小目标行人检测的精度及实时性。  相似文献   

5.
针对YOLOv3目标检测算法在遥感图像小目标检测方面精度较低的缺点,提出了一种改进的YOLOv3目标检测算法--YOLOv3-CS。根据对backbone中不同尺度特征重要性的分析重构了backbone,即增加具有丰富位置信息的浅层特征对应的卷积层深度,以此增强backbone对小目标特征的提取能力,引入RFB结构增大浅层特征图的感受野来提升小目标检测精度,优化了anchor boxes及其分配原则。在RSOD数据集的实验结果表明,YOLOv3-CS算法与YOLOv3相比,mAP提高6.49%,F1提高4.85%,所需存储空间降低12.58%,其中backbone的改进和RFB的引入对小目标检测的精度提升较为明显,说明提出的目标检测算法在遥感图像小目标检测方面有较高的优势。  相似文献   

6.
为了进一步提高多尺度目标检测的速度和精度,解决小目标检测易造成的漏检、错检以及重复检测等问题,提出一种基于改进YOLOv3的目标检测算法实现多尺度目标的自动检测。首先,在特征提取网络中对网络结构进行改进,在残差模块的空间维度中引入注意力机制,对小目标进行关注;然后,利用密集连接网络(DenseNet)充分融合网络浅层信息,并用深度可分离卷积替换主干网络中的普通卷积,减少模型的参数量,提升检测速率。在特征融合网络中,通过双向金字塔结构实现深浅层特征的双向融合,并将3尺度预测变为4尺度预测,提高了多尺度特征的学习能力;在损失函数方面,选取GIoU(Generalized Intersection over Union)作为损失函数,提高目标识别的精度,降低目标漏检率。实验结果表明,基于改进YOLOv3(You Only Look Once v3)的目标检测算法在Pascal VOC测试集上的平均准确率均值(mAP)达到83.26%,与原YOLOv3算法相比提升了5.89个百分点,检测速度达22.0 frame/s;在COCO数据集上,与原YOLOv3算法相比,基于改进YOLOv3的目标检测算法在mAP上提升了3.28个百分点;同时,在进行多尺度的目标检测中,算法的mAP有所提升,验证了基于改进YOLOv3的目标检测算法的有效性。  相似文献   

7.
针对目标检测过程中存在的小目标漏检问题,提出一种基于注意力机制和多尺度上下文信息的改进YOLOv5目标检测算法。首先,在特征提取结构中加入多尺度空洞可分离卷积模块(MDSCM)以提取多尺度特征信息,在增大感受野的同时避免小目标信息的丢失;其次,在主干网络中添加注意力机制,并在通道信息中嵌入位置感知信息,进一步增强算法的特征表达能力;最后,使用Soft-NMS(Soft-Non-Maximum Suppression)代替YOLOv5使用的非极大值抑制(NMS),降低检测算法的漏检率。实验结果表明,改进算法在PASCAL VOC数据集、DOTA航拍数据集和DIOR光学遥感数据集上的检测精度分别达到了82.80%、71.74%和77.11%,相较于YOLOv5,分别提高了3.70、1.49和2.48个百分点;而且它对图像中小目标的检测效果更好。因此,改进的YOLOv5可以更好地应用到小目标检测场景中。  相似文献   

8.
安全帽是施工人员的安全保障,但是现有安全帽检测模型在复杂环境下对重叠和密集小目标存在误检和漏检等问题,为此提出改进YOLOv5的小目标检测算法。在YOLOv5的主干网络中加入Transformer捕获多个尺度上的全局信息,获得更丰富的高层语义特征;使用GsConv卷积进行特征融合增强,并引入坐标注意力机制(coordinate attention),让网络在更大区域上进行注意;检测头将分类和回归进行解耦,加快收敛速度;使用无锚点(anchor-free)的检测方法,简化算法结构,加快检测速度;使用EIOU损失函数来优化边框预测的准确度。在自制安全帽数据集上实验结果表明,改进的YOLOv5模型平均精度达到了96.33%,相比于YOLOv5模型,平均精度提高了4.73个百分点,达到了在复杂条件下对重叠和密集小目标检测的要求。  相似文献   

9.
针对当前目标检测任务中对小目标检测识别率低,漏检率高的问题,提出一种基于门控通道注意力机制(EGCA)和自适应上采样模块的改进YOLOv3算法。该算法采用DarkNet-53作为主干网络进行图片基础特征提取;引入自适应上采样模块对低分辨率卷积特征图进行扩张,有效增强了不同尺度卷积特征图的融合效果;在三个尺度通道输出预测结果之前分别加入EGCA注意力机制以提高网络对小目标的特征表达和检测能力。将改进的算法在公开数据集RSOD(remote sensing object detection)上进行实验,小目标检测精度提升了8.2个百分点,最为显著,平均精度AP值达到56.3%,较原算法提升了7.9个百分点。实验结果表明,改进的算法相比于传统YOLOv3算法和其他算法拥有更好的小目标检测能力。  相似文献   

10.
针对复杂场景下合成孔径雷达(Synthetic aperture radar, SAR)图像船舶目标像素尺度差异大和船舶密集排列造成目标漏检的问题,提出一种基于改进YOLOv5的船舶多尺度SAR图像检测算法。对于YOLOv5的颈部网络,采用双向特征金字塔结构(Bi-directional feature pyramid network, BiFPN)提升网络多尺度特征融合能力,并在其自下而上的特征融合支路中,基于深度可分离卷积(Depthwise separable convolution, DSC)和通道MLP构建EC-MLP(Enhanced channel-MLP)模块,从而丰富语义信息,提供更充分的船舶目标上下文特征;引入全局注意力机制(Global attention mechanism, GAM),使网络对输入特征进行针对性提取并运算,减少网络的信息丢失;此外,使用SIoU损失函数进一步提高网络的训练收敛速度和检测精度。在SSDD和HRSID数据集上与其他8种方法(Faster R-CNN、Libra R-CNN、FCOS、YOLOv5s、PP-YOLOv2、YOLOX-s...  相似文献   

11.
目前基于深度学习算法的目标检测技术在合成孔径雷达(SAR)图像船舶检测中取得了显著的成果,然而仍存在着小目标船舶和近岸密集排列船舶检测效果差的问题。针对上述问题,提出了基于改进RetinaNet的船舶检测算法。在传统RetinaNet算法的基础上,首先,将特征提取网络残差块中的卷积改进为分组卷积,以增加网络宽度,从而提高网络的特征提取能力;其次,在特征提取网络的后两个阶段加入注意力机制,让网络更加专注于目标区域,从而提升目标检测能力;最后,将软非极大值抑制(Soft-NMS)加入到算法中,降低算法对于近岸密集排列船舶检测的漏检率。在高分辨率SAR图像数据集(HRSID)和SAR船舶检测数据集(SSDD)上的实验结果表明,所提改进算法对于小目标船舶和近岸船舶的检测效果得到了有效提升,与当前优秀的目标检测模型Faster R-CNN、YOLOv3和CenterNet等相比,在检测精度和速度上更加优越。  相似文献   

12.
针对在智能监控中安全帽佩戴检测准确率低和检测速率慢的问题,提出一种基于改进YOLOv3(You Only Look Once)的安全帽佩戴检测算法YOLOv3-WH。在YOLOv3算法的基础上改进网络结构,增大输入图像的尺度,使用深度可分离卷积结构替换Darknet-53传统卷积,减少特征的丢失,缩减模型参数,提升检测速率;使用多尺度特征检测,增加浅层检测尺度,添加4倍上采样特征融合结构,提高安全帽佩戴检测准确率;优化[K]-Means聚类算法,获取安全帽佩戴检测的先验框(anchor box),按照预测尺度大小分配适合的anchor,提升模型训练和检测速率。实验结果表明YOLOv3-WH相比YOLOv3,每秒检测帧数(FPS)提高了64%,检测平均精确度(mAP)提高了6.5%,该算法在提升了安全帽佩戴检测速率的同时提升了检测的准确率,对安全帽佩戴检测具有一定的实用性。  相似文献   

13.
为有效解决遥感图像目标检测算法在复杂背景下的检测效果不佳的问题,提出一种改进YOLOv4的目标检测算法。设计一种跨阶段残差结构,替换原主干网络的简单残差结构,降低模型参数量和计算负担;引入CBAM注意力机制,加强CSP模块间有效特征交互;使用跨阶段分层卷积模块重构特征融合阶段对深层特征图的处理方式,防止网络退化和梯度消失;采用Mish激活函数,增强融合网络对非线性特征的提取能力。在RSOD、DIOR数据集上的实验结果表明,改进YOLOv4算法的测试mAP相比原YOLOv4算法分别高出4.5%、7.3%,其检测速度分别达到48 fps、45 fps,在保证实时性的同时检测精度有较大提升。  相似文献   

14.
针对YOLOv3(you only look once)检测算法对小目标、遮挡目标检测时存在识别率低和识别精度不高的问题,提出一种融合DBSCAN(density-based spatial clustering of applications with noise)的改进YOLOv3目标检测算法。首先在YOLOv3网络中增加DBSCAN聚类算法,其次对检测目标进行提取,实现数据集多尺度聚类,得到初代特征图,然后通过改进[K]-means聚类算法确定锚点位置达到更好的聚类,最后在VOC2007+2012数据集和MS-COCO数据集上对改进YOLOv3算法进行训练和测试。实验结果表明改进的YOLOv3算法使检测目标在VOC数据集和MS-COCO数据集上mAP(mean average precision)分别提高了14.9个百分点和12.5个百分点。与其他深度学习目标检测算法相比,改进YOLOv3检测算法具有更好的检测效果,同时具有良好移植性和更好的鲁棒性。  相似文献   

15.
为解决当前工业机器人抓取检测任务中存在的精度不足的问题,提出了一种基于边缘提取与空洞卷积的抓取目标检测算法。该方法以当前较为稳定的YOLOv3网络作为主干网络,进行基于边缘提取的多通道特征融合,添加Edge Feature模块提高网络的检测精度和检测速度;基于空洞卷积技术优化自适应空间特征融合,形成Dilation-ASFF网络,替换原部分网络,提高网络对多尺度信息的感受能力以及网络检测精度;用CIoU的方法修改抓取框回归损失函数,提高网络的收敛能力与精度。改进后的算法在Cornell抓取检测数据集上的AP达到96.79%,检测速度达到0.063 s/样本,相比于原版YOLOv3网络,AP提高了2.98%。本改进算法在保证检测实时性的基础上,大大提高了检测精度,体现了研究的理论价值和应用价值。  相似文献   

16.
随着卷积神经网络与特征金字塔的发展,目标检测在大、中目标上取得了突破,但对于小目标存在漏检、检测精度低等问题。在YOLOv4算法的基础上进行改进,提出YOLOv4-RF算法,进一步提高模型对小目标的检测性能。使用空洞卷积替换YOLOv4中Neck部分的池化金字塔,在网络更深处减少语义丢失的同时获得更大的感受野。在此基础上,对主干网络进行轻量化并增加特征金字塔到主干网络的反馈机制,对来自浅层与深层融合的特征再次处理,保留更多小目标的特征信息,提高网络分类和定位的有效性。鉴于小目标物体属于困难检测样本,引入Focal Loss损失函数,增大困难样本的损失权重,形成YOLOv4-RF算法。在KITTI数据集上的实验数据表明,YOLOv4-RF在各个类别上的检测精度均高于YOLOv4,并在模型缩小138 MB的基础上提高了1.4%的平均精度均值(MAP@0.5)。  相似文献   

17.
针对无人机航拍图像中目标小、尺度不一和背景复杂等导致检测精度低的问题,提出一种基于改进YOLOv5的无人机航拍图像目标检测算法DY-YOLOv5。该算法在检测头部分利用具有多重注意力机制的目标检测头方法Dynamic Head,提升检测头在复杂背景下的检测表现。在原模型neck部分增加一次上采样和Concat操作,并执行一个包含极小、小、中目标的多尺度特征检测,提升模型对中、小目标的特征提取能力。引入密集卷积网络DenseNet,将其与YOLOv5s主干网络的C3模块进行融合,提出C3_DenseNet模块,以加强特征传递并预防模型过拟合。在VisDrone2019数据集上应用DY-YOLOv5算法,平均精度均值(mAP)达到了43.9%,较原YOLOv5算法提升了11.4个百分点。召回率(Recall)为41.7%,较原算法提升了9.0个百分点。实验结果证明,改进算法显著提高了无人机航拍图像目标检测的精度。  相似文献   

18.
针对复杂环境中,烟雾火焰检测存在精度低,小目标检测困难等问题,提出一种改进的基于YOLOv5s的小目标烟雾火焰检测算法。基于公开数据集自建了9 981张不相似的烟雾火焰图像数据集,解决现有数据集的限制,提高了模型的训练效率与泛化能力;在网络中添加3-D注意力机制SimAM,增加算法的特征提取能力,而且没有增加额外的参数;修改网络中的Neck结构,将三尺度检测改为四尺度检测,并结合了加权双向特征金字塔网络(BiFPN)结构,对特征融合过程进行修改,提高小目标的检测能力与特征融合能力;通过遗传算法来优化网络中的部分超参数,进一步模型的检测能力。实验结果表明,改进后的算法比原始YOLOv5s算法平均检测精度提高了7.2%,同时对小目标检测精度更高,误检漏检等情况减少。  相似文献   

19.
针对传统SSD算法在检测小目标时容易漏检且检测精度不高的问题,提出一种改进算法。对SSD算法中各尺度特征进行尺寸大小不变的卷积操作,将卷积前后对应的特征进行轻量级网络融合,从而生成新的金字塔特征层,并加入基于残差模块的检测单元避免增加网络模型容量和运算复杂度,同时增强对小尺度目标的检测能力。基于PASCAL-VOC2007小目标数据集的实验结果表明,与传统SSD、YOLOv3、Faster RCNN等算法相比,在PASCAL-VOC2007小目标数据集中,该算法的mAP指标较传统SSD算法提高8.5%,较Faster RCNN算法提高3.9%,较YOLOv3提高2%,FPS达到83 frame/s,其检测地铁安检图片的mAP达到77.8%。  相似文献   

20.
针对当前YOLOv4目标检测网络结构复杂、参数多、训练所需的配置高以及实时检测每秒传输帧数(FPS)低的问题,提出一种基于YOLOv4的轻量化目标检测算法ML-YOLO。首先,用MobileNetv3结构替换YOLOv4的主干特征提取网络,从而通过MobileNetv3中的深度可分离卷积大幅减少主干网络的参数量;然后,用简化的加权双向特征金字塔网络(Bi-FPN)结构替换YOLOv4的特征融合网络,从而用Bi-FPN中的注意力机制提高目标检测精度;最后,通过YOLOv4的解码算法来生成最终的预测框,并实现目标检测。在VOC2007数据集上的实验结果表明,ML-YOLO算法的平均准确率均值(mAP)达到80.22%,与YOLOv4算法相比降低了3.42个百分点,与YOLOv5m算法相比提升了2.82个百分点;而ML-YOLO算法的模型大小仅为44.75 MB,与YOLOv4算法相比减小了199.54 MB,与YOLOv5m算法相比,只高了2.85 MB。实验结果表明,所提的ML-YOLO模型,一方面较YOLOv4模型大幅减小了模型大小,另一方面保持了较高的检测精度,表明该算法可以满足移动端或者嵌入式设备进行目标检测的轻量化和准确性需求。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号