首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 156 毫秒
1.
针对当前YOLOv4目标检测网络结构复杂、参数多、训练所需的配置高以及实时检测每秒传输帧数(FPS)低的问题,提出一种基于YOLOv4的轻量化目标检测算法ML-YOLO。首先,用MobileNetv3结构替换YOLOv4的主干特征提取网络,从而通过MobileNetv3中的深度可分离卷积大幅减少主干网络的参数量;然后,用简化的加权双向特征金字塔网络(Bi-FPN)结构替换YOLOv4的特征融合网络,从而用Bi-FPN中的注意力机制提高目标检测精度;最后,通过YOLOv4的解码算法来生成最终的预测框,并实现目标检测。在VOC2007数据集上的实验结果表明,ML-YOLO算法的平均准确率均值(mAP)达到80.22%,与YOLOv4算法相比降低了3.42个百分点,与YOLOv5m算法相比提升了2.82个百分点;而ML-YOLO算法的模型大小仅为44.75 MB,与YOLOv4算法相比减小了199.54 MB,与YOLOv5m算法相比,只高了2.85 MB。实验结果表明,所提的ML-YOLO模型,一方面较YOLOv4模型大幅减小了模型大小,另一方面保持了较高的检测精度,表明该算法可以满足移动端或者嵌入式设备进行目标检测的轻量化和准确性需求。  相似文献   

2.
遥感图像的复合目标相对单一目标而言,存在多个结构,结构之间存在一定差异。本文围绕复合目标多变性、复杂性,大宽幅遥感影像背景复杂,存在较多和待检复合目标特征相似的区域,检测准确率较低等问题,开展基于高分辨率遥感图像的复合目标检测研究。首先开展目标特性分析和样本数据标注;然后提出一种基于Coordinate Attention注意力机制和Focal Loss损失函数的改进YOLOv3检测算法;最后以篮球场这种复合目标为例进行实验。实验结果表明,改进后的算法与原YOLOv3算法相比,召回率和平均检测准确率分别提高了10.3个百分点和28.8个百分点。该结果验证了所提方案的可行性、合理性。  相似文献   

3.
深度学习在缺陷检测方面具有优越性能,然而在工业应用过程中由于缺陷概率低,无缺陷图像的检测过程占据了大部分计算时间,严重限制了整体上的有效检测速度。针对上述问题,提出一种基于级联网络的型钢表面缺陷检测算法SDNet。该算法分为两个阶段:预检阶段和精检阶段。预检阶段采用基于深度可分离卷积(DSC)以及多尺度并行卷积的轻量化ResNet预检网络,判断型钢表面图像是否存在缺陷;精检阶段以YOLOv3作为基准网络对图像中的缺陷进行准确分类与定位,并在主干特征提取网络以及预测分支中引入改进空洞空间金字塔池化(ASPP)模块以及对偶注意力模块,以提升网络的检测性能。实验结果表明,SDNet在1 024像素×1 024像素图像上的检测速度达到每秒120.63帧,准确率达到92.1%。与原YOLOv3算法相比,所提算法的检测速度是原YOLOv3算法的3.7倍,检测精度提高了10.4个百分点,可应用于型钢表面缺陷的快速检测。  相似文献   

4.
为了解决在实际道路场景中对摩托车驾乘者头盔佩戴情况的检测与跟踪问题,提出一种优化的DeepSORT多目标跟踪摩托车头盔检测算法。使用改进的YOLOv3算法作为目标检测器,该方法采用MobileNetv3-Large作为YOLOv3特征提取网络,以轻量化网络结构,借鉴CEM模块的思想,引入SoftPool池化层和SE模块,构建了深浅语义融合增强模块,加强网络对输入特征深浅语义的编码能力。为了实现摩托车头盔佩戴分类和DeepSORT算法中外观特征识别模型的优化,构建多任务学习框架,通过对比损失函数和改进的交叉损失函数对多任务网络进行迭代训练来提升相似度学习能力和实现最终头盔佩戴情况分类。实验结果表明:在目标检测方面,改进网络的摩托车检测精度相较原始算法提升了4.56个百分点,模型大小仅为YOLOv3的13.7%。结合DeepSORT算法,多目标跟踪准确率相较于YOLOv3-DeepSORT算法从51.6%提升到了67.5%,多目标跟踪精度从57.3%提升到75.6%,检测追踪速度由6 FPS提升到了20 FPS,最终的NPH模型检测分类精度为72.42%。实现了对实际道路中摩托车驾乘人员头...  相似文献   

5.
针对运动场景下由于设备移动、相机散焦,导致采集到的图像模糊,图像质量低,以及目标体积小,使目标检测困难的问题,提出了一种改进YOLOv5x目标实时检测模型。采用可变形卷积网络替换部分原始YOLOv5x中传统的卷积层,增强模型在运动场景中细粒度特征提取和小目标检测能力;增加SE注意力机制,解决在卷积过程中,因丢失图像全局上下文信息,造成特征损失的问题,提高了模型在图像模糊情况下小目标的检测精度;引入一种新的边界框回归损失函数SIoU Loss,解决了预测框在回归时随意匹配的问题,提高了模型鲁棒性和泛化能力,加快网络的收敛速度。实验结果表明,相比于YOLOv5x模型,将改进后的算法应用在水下移动机器人生物检测中,模型准确率P、召回率R、各类平均精度mAP分别提升了5.90个百分点、5.85个百分点、4.38个百分点,有效增强了小目标检测模型的检测性能。  相似文献   

6.
冯号  黄朝兵  文元桥 《计算机应用》2022,42(12):3723-3732
YOLOv3算法被广泛地应用于目标检测任务。虽然在YOLOv3基础上改进的一些算法取得了一定的成果,但是仍存在表征能力不足且检测精度不高的问题,尤其对小目标的检测还不能满足需求。针对上述问题,提出了一种改进YOLOv3的遥感图像小目标检测算法。首先,使用K均值聚类变换(K-means-T)算法优化锚框的大小,从而提升先验框和真实框之间的匹配度;其次,优化置信度损失函数,以解决难易样本分布不均衡的问题;最后,引入注意力机制来提高算法对细节信息的感知能力。在RSOD数据集上进行实验的结果显示,与原始的YOLOv3算法、YOLOv4算法相比,所提算法在小目标“飞机(aircraft)”类上的平均精确率(AP)分别提高了7.3个百分点和5.9个百分点。这表明所提算法能够有效检测遥感图像小目标,具有更高的准确率。  相似文献   

7.
目前在带钢表面缺陷检测领域,通用的目标检测算法复杂度高、计算量庞大,而一些中小型企业负责检测的终端设备通常不具备较强的计算能力,计算资源有限,从而导致检测算法部署困难。为解决该问题,基于YOLOv8n目标检测框架,提出一种轻量级的带钢表面缺陷检测模型YOLOv8-VSC。该模型使用轻量级的VanillaNet网络作为骨干特征提取网络,通过减少不必要的分支结构降低模型的复杂度。同时,引入SPD模块在减少网络层数的同时加快模型的推理速度。为了进一步提升检测精度,在特征融合网络中,使用轻量级的上采样算子CARAFE,提高融合特征的质量和丰富度。最后,在NEU-DET数据集上进行大量实验,得到模型的参数量与计算量为1.96×106和6.0 GFLOPs,仅为基线的65.1%和74.1%,mAP达到80.8%,较基线提升1.8个百分点。此外,在铝材表面缺陷数据集和VOC2012数据集上的实验结果表明所提算法具有良好的鲁棒性。与先进的目标检测算法相比,所提算法在保证高检测精度的前提下需要的计算资源更少。  相似文献   

8.
针对图像相似性度量问题,提出一种图像相似性改进算法。首先,分别得到源图像和候选图像的三个向量,包括HSV颜色空间H分量的颜色直方图向量、尺度不变特征转换(SIFT)算法局部特征向量以及图像颜色矩向量;然后,采用向量拼接的方法融合上述三个向量,借助主成分分析对融合后的向量降维,生成新的特征向量;最后,计算源图像和候选图像特征向量之间的欧氏距离,进行特征点匹配和图像相似度计算。实验结果表明,所提算法不仅提高了颜色直方图算法对于颜色分布接近图像的识别精度,而且减少了SIFT算法对于平坦区域较多图像的误判,平均查准率较颜色直方图算法和SIFT算法分别提高了23.8和9.6个百分点。所提算法能够有效提高识别图像相似性的准确度,判别结果更符合人眼观察结果。  相似文献   

9.
针对图像相似性度量问题,提出一种图像相似性改进算法。首先,分别得到源图像和候选图像的三个向量,包括HSV颜色空间H分量的颜色直方图向量、尺度不变特征转换(SIFT)算法局部特征向量以及图像颜色矩向量;然后,采用向量拼接的方法融合上述三个向量,借助主成分分析对融合后的向量降维,生成新的特征向量;最后,计算源图像和候选图像特征向量之间的欧氏距离,进行特征点匹配和图像相似度计算。实验结果表明,所提算法不仅提高了颜色直方图算法对于颜色分布接近图像的识别精度,而且减少了SIFT算法对于平坦区域较多图像的误判,平均查准率较颜色直方图算法和SIFT算法分别提高了23.8和9.6个百分点。所提算法能够有效提高识别图像相似性的准确度,判别结果更符合人眼观察结果。  相似文献   

10.
分心驾驶行为识别是提高驾驶安全的主要方法之一。针对分心驾驶行为识别精度低的问题,本文提出一种基于深度学习的驾驶员分心行为识别算法,由目标检测网络和行为精确识别网络级联构成。基于State Farm公开数据集,第一级利用目标检测算法SSD(Single Shot Multibox Detector)对数据集中的驾驶员原始图像进行局部信息提取,确定行为识别候选区域;第二级分别利用迁移学习VGG19、ResNet50和MobileNetV2模型对候选区域内的行为信息进行精确识别;最后,实验对比级联架构与单模型架构对分心驾驶行为的识别精度。结果表明,提出的级联网络模型相较于主流单模型检测方法,驾驶员行为识别的准确率总体上提升4~7%个百分点。该算法不仅减少噪声和其他背景区域对模型的影响,提高分心行为识别准确率,还可以有效识别更多的行为类别以避免动作的误分类。  相似文献   

11.
针对硬币表面缺陷较小、形状多变且易与背景混淆而不易检出的问题,改进YOLOv3算法并提出基于可变形卷积和自适应空间特征融合的硬币表面缺陷检测算法DCA-YOLO。首先,由于缺陷形状的多变设计了3种在主干网络中不同位置添加可变形卷积模块的网络结构,通过卷积学习偏移量和调节参数来提高缺陷的提取能力;然后,使用自适应空间特征融合网络学习权重参数来调整不同尺度特征图中各像素点的贡献度以更好地适应不同尺度的目标;最后,改进先验锚框比例,动态调节类别权重,优化并对比网络性能,从而提出在主干网络输出特征进行多尺度融合的上采样前增加可变形卷积的模型网络。实验结果表明,在硬币缺陷数据集上,DCA-YOLO算法检测平均精度均值(mAP)接近于Faster-RCNN,达到了92.8%;而相较于YOLOv3,所提算法的检测速度基本持平,在检测mAP上提高了3.3个百分点,F1分数提升了3.2个百分点。  相似文献   

12.
针对YOLOv3(you only look once)检测算法对小目标、遮挡目标检测时存在识别率低和识别精度不高的问题,提出一种融合DBSCAN(density-based spatial clustering of applications with noise)的改进YOLOv3目标检测算法。首先在YOLOv3网络中增加DBSCAN聚类算法,其次对检测目标进行提取,实现数据集多尺度聚类,得到初代特征图,然后通过改进[K]-means聚类算法确定锚点位置达到更好的聚类,最后在VOC2007+2012数据集和MS-COCO数据集上对改进YOLOv3算法进行训练和测试。实验结果表明改进的YOLOv3算法使检测目标在VOC数据集和MS-COCO数据集上mAP(mean average precision)分别提高了14.9个百分点和12.5个百分点。与其他深度学习目标检测算法相比,改进YOLOv3检测算法具有更好的检测效果,同时具有良好移植性和更好的鲁棒性。  相似文献   

13.
针对带钢表面缺陷在实际场景中检测精度低,易出现漏检和误检的情况,构建一种YOLOv5-CFD模型对带钢缺陷目标进行更精确的检测,该模型由CSPDarknet53、FcaNet与解耦检测头(Decoupled head)组成。首先,采用模糊C均值(FCM)算法对东北大学公开的NEU-DET热轧带钢表面缺陷检测数据集中的锚框进行聚类,优化先验框和真实框之间的匹配度;其次,为提取目标区域丰富的细节信息,在原始YOLOv5算法基础上添加频域通道注意力模块FcaNet;最后,采用解耦检测头将分类任务和回归任务分离。在NEU-DET数据集上的实验结果表明,改进的YOLOv5算法在引入较少参数量的情况下,检测精度提高了4.2个百分点,平均精度均值(mAP)达到85.5%,每秒传输帧数(Frames Per Second,FPS)达到27.71,与原YOLOv5相差不大,能够满足检测实时性的要求。  相似文献   

14.
针对机场跑道异物(Foreign Object Debris,FOD)的小目标特点,提出一种基于改进YOLOv3的FOD目标检测算法。以YOLOv3网络为基础,采用运算复杂度相对更低的Darknet-49作为特征提取网络,并将检测尺度增加至4个,进行多尺度特征融合。使用基于马尔科夫链蒙特卡罗采样(Markov Chain Monte Carlo sampling,MCMC)的[K]-means++算法对标注边界框尺寸信息进行聚类分析。训练时引入GIoU边界框回归损失函数。实验结果表明,改进的YOLOv3目标检测算法在满足实时性要求的情况下,精确率和召回率达到了95.3%和91.1%,与Faster R-CNN相比具有更高的检测速度,与SSD相比具有更高的检测精度,有效解决了原YOLOv3存在的定位精度偏低和漏检问题。  相似文献   

15.
为了进一步提高多尺度目标检测的速度和精度,解决小目标检测易造成的漏检、错检以及重复检测等问题,提出一种基于改进YOLOv3的目标检测算法实现多尺度目标的自动检测。首先,在特征提取网络中对网络结构进行改进,在残差模块的空间维度中引入注意力机制,对小目标进行关注;然后,利用密集连接网络(DenseNet)充分融合网络浅层信息,并用深度可分离卷积替换主干网络中的普通卷积,减少模型的参数量,提升检测速率。在特征融合网络中,通过双向金字塔结构实现深浅层特征的双向融合,并将3尺度预测变为4尺度预测,提高了多尺度特征的学习能力;在损失函数方面,选取GIoU(Generalized Intersection over Union)作为损失函数,提高目标识别的精度,降低目标漏检率。实验结果表明,基于改进YOLOv3(You Only Look Once v3)的目标检测算法在Pascal VOC测试集上的平均准确率均值(mAP)达到83.26%,与原YOLOv3算法相比提升了5.89个百分点,检测速度达22.0 frame/s;在COCO数据集上,与原YOLOv3算法相比,基于改进YOLOv3的目标检测算法在mAP上提升了3.28个百分点;同时,在进行多尺度的目标检测中,算法的mAP有所提升,验证了基于改进YOLOv3的目标检测算法的有效性。  相似文献   

16.
张新宇  丁胜  杨治佩 《计算机应用》2022,42(8):2378-2385
针对交通标志在某些场景中存在分辨率过低、被覆盖等环境因素影响导致在目标检测任务中出现漏检、误检的情况,提出一种基于改进注意力机制的交通标志检测算法。首先,针对交通标志因破损、光照等环境影响造成图像分辨率低从而导致网络提取图像特征信息有限的问题,在主干网络中添加注意力模块以增强目标区域的关键特征;其次,特征图中相邻通道间的局部特征由于感受野重叠而存在一定的相关性,用大小为k的一维卷积代替通道注意力模块中的全连接层,以达到聚合不同通道信息和减少额外参数量的作用;最后,在路径聚合网络(PANet)的中、小尺度特征层引入感受野模块来增大特征图的感受野以融合目标区域的上下文信息,从而提升网络对交通标志的检测能力。在中国交通标志检测数据集(CCTSDB)上的实验结果表明,所提出的YOLOv4(You Only Look Once v4)改进算法在引进极少的参数量与原算法检测速度相差不大的情况下,平均精确率均值(mAP)达96.88%,mAP提升了1.48%;而与轻量级网络YOLOv5s相比,在单张检测速度慢10 ms的情况下,所提算法mAP比YOLOv5s高3.40个百分点,检测速度达到40?frame/s,说明该算法完全满足目标检测实时性的要求。  相似文献   

17.
李姚舜  刘黎志 《计算机应用》2022,42(9):2900-2908
智慧工地中的设备内存和计算能力有限,在现场的设备上通过目标检测对钢筋进行实时检测具有很大的难度,而且其钢筋检测速度慢、模型部署成本高。针对这些问题,在YOLOv3网络的基础上,提出了一个嵌入注意力机制的轻量级钢筋检测网络RebarNet。首先,利用残差块作为网络的基本单元来构建特征提取结构,并用其提取局部和上下文信息;其次,在残差块中添加通道注意力(CA)模块和空间注意力(SA)模块,以调整特征图的注意力权重,并提升网络提取特征的能力;然后,采用特征金字塔融合模块,以增大网络的感受野,并优化中等钢筋图像的提取效果;最后,输出经过8倍下采样后的52×52通道的特征图用于后处理和钢筋检测。实验结果表明,所提网络的参数量仅为Darknet53网络的5%,在钢筋测试集上以106.8 FPS的速度达到了92.7%的mAP。与现有的EfficientDet、SSD、CenterNet、RetinaNet、Faster RCNN、YOLOv3、YOLOv4和YOLOv5m等8个目标检测网络相比,RebarNet具有更短的训练时间(24.5 s)、最低的显存占用(1 956 MB)、最小的模型权重文件(13 MB)。与目前效果最好的YOLOv5m网络相比,RebarNet的mAP略低0.4个百分点,然而其检测速度上升了48 FPS,是YOLOv5m网络的1.8倍。以上结果表明,所提出的网络有助于完成智慧工地中要求实现的高效、准确的钢筋检测任务。  相似文献   

18.
针对通用目标检测算法在检测小目标时检测精度低的问题,提出一种基于多尺度感受野融合的小目标检测算法S-RetinaNet。该算法采用残差神经网络(residual neural network,ResNet)提取出图像的特征,利用递归特征金字塔网络(recursive feature pyramid network,RFPN)对特征进行融合,通过多尺度感受野融合模块(multiscale receptive field fusion,MRFF)分别处理RFPN的三个输出,提升对小目标的检测能力。实验表明,相比改进前的RetinaNet算法,S-RetinaNet算法在PASCAL VOC数据集上的均值平均精度(mean average precision,mAP)和MS COCO数据集上的平均精度(average precision,AP)分别提高了2.3和1.6个百分点,其中小目标检测精度(average precision small,APS)更为显著,提升了2.7个百分点。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号