首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 703 毫秒
1.
丁文龙  费树珉 《电子测试》2022,(11):84-86+114
针对目前对工业现场安全帽佩戴检测过程中出现的检测准确率低和实时性弱问题,提出一种基于YOLOv3的改进模型。首先,采用K-Means++聚类算法,优化获取安全帽佩戴检测的先验框尺寸;在YOLOv3特征提取网络之后引入注意力模块(scSE);并在网络预测阶段,引入残差模块。实验表明:在自制安全帽佩戴检测数据集实验中平均准确率达到88.16%。相较于原始的YOLOv3算法,改进后算法对安全帽检测平均准确度有一定程度的提高。  相似文献   

2.
针对目前主流的目标检测算法存在模型参数过大、不能很好地移植到移动设备端之中应用于辅助驾驶这一问题,本文提出了一种改进YOLOv5s的目标检测算法。首先,将YOLOv5s算法的主干网络CSPDarknet替换为轻量化网络模型MobileNet-V3,解决了网络模型较大、参数较多的问题,减少了网络的深度并提升了数据推断速度;其次,对特征提取网络采用加权双向特征金字塔结构Bi-FPN加强特征提取,融合多尺度特征进而扩大感受野;最后,对损失函数进行优化,使用CIoU为边界框回归损失函数,改善模型原始GIoU收敛速度较慢问题,使预测框更加符合于真实框,同时降低网络训练难度。实验结果表明,改进后算法在KITTI数据集上的mAP相较于YOLOv5s、SSD、YOLOv3、YOLOv4_tiny分别提升了4.4、15.7、12.4、19.6,模型大小相较于YOLOv5s与轻量级网络YOLOv4_tiny分别减少了32.4 MB和21 MB,同时检测速度分别提升了17.6%与43%。本文改进后的算法满足模型小、精确度高的要求,为辅助驾驶中道路目标检测提升检测速度与精度提供了一种解决方案。  相似文献   

3.
针对安全帽佩戴检测任务中的小目标密集导致的遮挡和难以检测等问题,提出了一种基于YOLOX和transformer的安全帽佩戴检测算法。首先使用融合了CNN和transformer的网络swin Csp进行特征提取,提升模型获取全局上下文信息的性能;然后采用简化的重复加权双向特征金字塔网络BiFPN,使算法更好地融合不同尺度的特征;最后在neck和YOLO head的连接部分加入CBAM注意力机制,加强安全帽特征与位置信息的关联程度,进一步增强网络的性能和鲁棒性。基于SHWD数据集进行实验,结果表明,算法在hat类上提高了0.99%的精度,在两种类型的召回率上分别有3.16%和1.7%的提升,在mAP方面则有1.79%的提升,有效实现了快速且精度较高的安全帽佩戴检测。  相似文献   

4.
在复杂的施工环境中,基于机器视觉技术的安全帽佩戴检测算法常常出现漏检、误检,其检测能力有限。为提高安全帽佩戴检测的精度,本文建立了一种基于注意力机制的双向特征金字塔的安全帽检测卷积神经网络。为兼顾卷积神经网络中的浅层位置信息和深层语义信息的表达能力,实现对弱小安全帽目标的检测能力,该网络将跳跃连接和注意力机制CBAM技术引入双向特征融合的特征金字塔网络PANet模块中,构建基于注意力机制的双向特征金字塔模块CPANet。为提高模型的收敛能力,采用了CIoU来代替IoU进行优化锚框回归预测,降低该网络的训练难度。对比实验表明,本文建立的检测网络比YOLOv3、RFBNet、SSD、Faster RCNN的mAP值分别提高了0.82,4.43,23.12,23.96,检测速度达到21frame/s,实现了施工现场安全帽佩戴实时高精度检测。  相似文献   

5.
目标检测技术广泛应用于各个领域,其目的是通过对输入图像中的物体和场景进行信息的特征提取,从而识别图中感兴趣的目标。为了减少作业人员在建筑工地作业时因未佩戴安全帽造成的人员伤亡事故,文章提出了一种基于深度学习的建筑工地安全帽目标智能检测方法,检测建筑工地人员安全帽佩戴情况,提高行业安全生产效率。本研究通过安全帽数据集进行先验框设计,采用k-means算法获得本数据集的先验框维度;将用于训练的图片进行拼接实现了数据集的增强;用CIOU代替回归损失增加预测精度,基于YOLOv4的基础网络进行特征提取,获得不同尺度的特征层,将获得的特征层经过深层次特征金字塔进行特征融合,再输入分类回归层进行回归预测。  相似文献   

6.
铁轨轨枕表面出现的裂纹可能对轨道交通造成安全隐患。针对铁轨裂纹检测的方法存在通用性差、精度低、召回率低的问题,提出一种基于改进YOLOv5s的铁轨裂纹检测算法YOLOv5s-CBE。首先将CA注意力模块分别加入主干C3模块以及C3与SPPF之间,从通道和空间两个维度捕获通道关系和位置信息,提高YOLOv5s主干网络特征提取能力。其次,在YOLOv5s的Neck部分,使用BiFPN融合不同尺度信息,获取拥有丰富语义信息的输出特征图;同时,加权双向特征融合金字塔结构通过引入权重调整不同尺度输入特征图对输出的贡献,优化特征融合效果,减少了卷积过程中特征信息的丢失,提高了检测精度。最后,将原YOLOv5s中损失函数CIoU改为EIoU。EIoU不仅考虑了中心点距离和纵横比,而且还考虑了预测框与真实框宽度和高度的真实差异,提高了锚框的预测精度。相较于原始网络YOLOv5s,YOLOv5s-CBE铁轨裂纹检测网络在自制铁轨裂纹数据集上,模型大小相较于基础网络YOLOv5s降低了1.0 MB,精度mAP提高了3.7%,召回率由73.5%提升到76.2%,不同尺寸裂纹的漏检现象减少,具有一定的优越性和...  相似文献   

7.
目标检测是自动驾驶的重要前提,是与外界信息交互的重要环节。针对夜间远处行人检测识别精度低、漏检的问题,提出一种针对检测小尺寸行人的YOLOv5-p4的夜间行人识别模型。首先,通过增加更小目标的检测层,引入BiFPN特征融合机制,防止小目标被噪声淹没,使网络模型可以更聚焦于物体的细小特征;同时使用K-means先验框聚类出更小目标的锚框,并且使用了多尺度的数据增强方法,增加模型的鲁棒性。使用了MetaAcon-C激活函数与EIoU回归损失函数使模型收敛效果更好,提升了算法远距离行人的检测的准确率。最后在红外行人数据集FLIR上验证改进后的YOLOv5-p4模型对于行人的检测能力,实验结果表明该方法与传统方法相比,准确率从86.9%提升到90.3%,适合用于红外图像中的行人检测。  相似文献   

8.
YOLOv3算法在单一物体目标检测时使用Darknet53作为主干,网络出现冗余现象,导致参数过多,检测速度变慢,传统的边界框损失函数影响检测定位准确性。针对这一问题,文中提出了改进YOLOv3算法的行人检测方法。通过构造以Darknet19为主干网络多尺度融合的新型网络,加快训练速度和检测速度,还通过引入广义交并比损失函数来提高检测精确度。实验结果表明,在行人检测数据集如INRIA行人数据集中,相比于原始算法,文中所提算法的精确度提高了5%。和Faster R-CNN相比,在保证准确率的情况下,采用文中算法使单张图片的检测速度达到了每张0.015 s。  相似文献   

9.
针对目标检测算法RetinaNet在多尺度物体检测任务中存在利用特征上下文信息和多尺度特征融合不充分及边界框回归不够快速精准的问题,提出了一种注意力优化RetinaNet的多尺度目标检测算法。在特征提取模块嵌入无参数的3D注意力机制,来充分利用特征上下文信息;同时,构建了特征融合细化模块,实现多尺度融合特征的细化和增强;使用距离交并比(Distance Intersection over Union, DIoU)损失函数优化定位损失,提升边界框回归精准度。为了论证该方法的有效性,分别在PASCAL VOC数据集和MS COCO数据集上进行实验。改进模型的检测精度分别达到了82.1%、52.3%,其中,小目标、中目标和大目标的检测精度相比原算法分别提升了1.9%、1.1%和1.4%。  相似文献   

10.
针对现存无人机航拍图像目标检测算法检测精度较低、模型较为复杂的问题,提出一种改进YOLOv8的目标检测算法。在骨干网络引入多尺度注意力EMA,捕捉细节信息,以提高模型的特征提取能力;改进C2f模块,减小模型的计算量。提出了轻量级的Bi-YOLOv8特征金字塔网络结构改进YOLOv8的颈部,增强了模型多尺度特征融合能力,改善网络对小目标的检测精度。使用WIoU Loss优化原网络损失函数,引入一种动态非单调聚焦机制,提高模型的泛化能力。在无人机航拍数据集VisDrone2019上的实验表明,提出算法的mAP50为40.7%,较YOLOv8s提升了1.5%,参数量降低了42%,同时相比于其他先进的目标检测算法在精度和速度上均有提升,证明了改进算法的有效性和先进性。  相似文献   

11.
在工地生产与建设中,工人由于未正确规范佩戴安全帽而发生的安全事故时有发生,为了保护工人的安全与降低由于为佩戴安全帽就进入施工现场而引起的意外事件的发生,提出了一种基于改进YOLOv3算法的安全帽佩戴检测方法。通过反卷积模块对网络进行上采样而增加网络在小物体上的表达能力来提高网络的检测准确度。理论分析与实验结果表明,改进的D-YOLOv3网络在检测速率不下降的情况下,mAP(Mean Average Precision)达到了88.8%,其准确率相较于YOLOv3有一定的提高,所提出的算法满足安全帽检测任务的准确性与实时性的要求。  相似文献   

12.
针对传统算法依赖于对红外船舶目标与环境背景的精确分离和信息提取,难以满足复杂背景和噪声等干扰环境下的船舶目标检测需求,提出一种基于改进YOLOv5的红外船舶目标检测算法。在YOLOv5网络中添加Reasoning层,以一种新的提取图像区域间语义关系来预测边界框和类概率的体系结构,提高模型的检测精度,同时对YOLOv5目标检测网络的损失函数进行改进,从而达到进一步提高模型准确率的目的。验证结果表明,改进后的YOLOv5算法训练出来的模型,检测精确率和速度与实验列出的几种目标检测算法相比均有明显提升,其中平均精度均值(mAP)可达94.65%。该模型经过验证,既能满足检测的实时性要求,又能保证高精度。  相似文献   

13.
李男  叶晓东  王昊  黄鑫宇  陶诗飞 《信号处理》2022,38(5):1009-1018
针对复杂场景下合成孔径雷达图像船舶检测中易产生漏检的问题,本文提出了一种基于改进YOLOv5的复杂场景下SAR图像船舶检测算法。该算法首先将由通道注意力和空间注意力共同组成的自适应注意力模块引入YOLOv5的特征提取网络中,通过将特征向量筛选加权后,使重要的目标特征占有更大的网络处理比重,以此增强网络对目标区域的特征学习能力。然后根据SAR图像特性优化了检测模型的损失函数,提升了预测框的置信度,最终降低了复杂场景区域的目标漏检率。实验表明,相比传统YOLOv5算法,本文算法显著提升了召回率。对于复杂场景下的SAR图像船舶目标检测,平均准确率达到了79.8%,相比于传统YOLOv5算法和Faster R-CNN算法分别提高了26.1%和17.3%。   相似文献   

14.
针对YOLOv5算法在检测小目标时存在准确率较低的情况,提出旨在提高小目标检测准确率的轻量级网络KOS-YOLOv5算法。首先采用K-means++聚类技术选择一组合适的锚框尺寸作为模型的先验,对小目标实现更精确的锚框尺寸,使模型能适应不同大小的目标;其次利用简化正负样本分配策略(SimOTA)进行动态样本匹配,更好地优化损失函数;最后将空间上下文金字塔(SCP)模块集成到算法检测层中,促使骨干网络更加关注小目标的特征信息,用以增加目标特征提取能力,提高目标的检测准确率。结果表明,改进后的KOS-YOLOv5算法与传统的YOLOv5模型进行比较,算法在检测精确度(P)方面提高了4%,召回率(R)方面提高了2.4%,平均检测精度(mAP)提高了3.1%,损失函数值(Loss)降低了5%,最终检测精度为95.38%。  相似文献   

15.
现有以YOLOv5为代表的目标检测技术,存在骨干网络对特征提取不充分以及颈部层未高效融合浅层位置信息和深层高级语义信息等问题,这会导致检测精度较低,小目标误检、漏检。针对此问题,从兼顾实时性与检测精度出发,对YOLOv5进行改进,提出一种改进网络YOLOv5-CBGhost。首先在骨干网络中引入Ghost模块对模型进行轻量化处理,引入CA模块来更好地获得全局感受野,提高模型获取目标位置的准确度;然后借鉴双向加权特征金字塔网络,对原PAN结构进行改进,有效减少了特征冗余以及参数量,并通过跨层加权连接融合更多特征,提高了模型的目标检测精度;最后,增加多检测头以获取图片更丰富的高层语义信息,有效增加了检测精度。通过在PASCAL VOC2007+2012数据集上实验,YOLOv5-CBGhost的目标精度达到81.8%,相较于YOLOv5s,提高了3.0%,计算量减少42.5%,模型大小减少3.5%。  相似文献   

16.
针对无人机视角下目标尺度差异大、检测场景复杂、目标小且密集而导致的检测精度不高的问题,提出了一种基于改进YOLOv5n的实时目标检测算法。首先,通过引入轻量通道注意力(ECA)模块提高卷积神经网络对特征图内有效信息的提取能力;其次,在特征金字塔网络输出端后,加入自适应空间特征融合(ASFF)模块,提高不同尺度特征图的识别精度;再次,使用EIoU损失函数计算预测框和目标框的差异值,加快收敛速度并提高检测精度;最后,改进YOLOv5n的检测头,优化模型对小目标的检测性能。在VisDrone数据集上训练测试,相比于基础的YOLOv5n模型,在640×640分辨率下,改进后模型的类平均精度(mAP50)提高了6.1个百分点;在1504×1504分辨率下类平均精度(mAP50)提高了7.1个百分点;同时,改进后的模型检测速度在硬件上可达22帧/s以上。该算法模型在精度提高的同时保证了足够高的检测速度,更适用于无人机的小目标实时检测。  相似文献   

17.
损失函数对于目标检测任务的检测精度和模型收敛速度具有重要作用,而损失函数中的边界框损失函数是影响检测结果和模型收敛速度的重要因素。针对传统模型定位精度低和训练时模型收敛慢的问题,本文在CIoU边界框损失函数的基础上提出一种改进的边界框损失函数,解决了CIoU损失函数求导过程中由边界框宽高比带来的梯度爆炸问题和模型提前退化的问题,并且引入重叠区域与目标框的宽高关系和中心点之间的归一化距离作为附加的惩罚项,提高了模型的检测精度和收敛速度,这种损失函数称为BCIoU(Better CIoU)。在PASACL VOC 2007数据集上的实验结果表明,改进的BCIoU边界框损失函数在YOLOv3网络下相对于IoU损失的mAP50指标相对提升了2.09%,AP指标相对提升了6.88%;相对于CIoU损失的mAP50指标相对提升了1.64%,AP指标相对提升了5.35%。模型的收敛速度也有一定程度的提升。本文提出的BCIoU损失函数提高了模型的检测精度和模型收敛速度,并且可以很方便地纳入到当前目标检测算法中。  相似文献   

18.
针对复杂矿井环境下光照度低、目标尺度变化大、目标间遮挡严重,现有的目标检测网络特征提取困难、检测效果差等问题,提出了改进的S3-YOLOv5s的矿井人员防护设备检测算法。在主干网络中加入无参注意力模块(SimAM),提升网络的特征提取能力;引入尺度均衡特征金字塔卷积,加强多尺度特征融合;最后采用SIoU作为边框回归损失函数并使用K-means++算法进行先验锚框聚类,提高边框检测精度。实验表明,相比现有的YOLOv5s算法,所提算法在所有类别的平均检测精确度从89.64%提升到了92.86%,在复杂矿井环境条件下对人员防护设备有优良的检测能力,验证了所提方法的有效性。  相似文献   

19.
针对海面目标检测模型难以应用在存储能力和计算能力较小的移动端的问题,提出一种基于改进YOLOv5的海面目标检测算法。采用轻量级提取网络ShuffleNetv2 Block作为YOLOv5网络的骨干部分,减少模型计算量和参数量;使用加权双向特征金字塔网络模块替换原特征融合网络模块,提高网络对不同尺度的特征提取能力;引入坐标注意力机制,提高模型检测精度。在海面目标数据集上进行实验,结果表明:与YOLOv5模型相比,改进模型的精确率、召回率、平均精度分别提高了1.2%、1.4%、0.9%,计算量和参数量分别降低了55.8%,54.9%。改进后的YOLOv5模型不仅提高了检测精度和模型性能,还压缩了模型的计算量和参数量,有利于部署在移动设备端。  相似文献   

20.
提出了一种融合场景上下文的轻量级目标检测网络,有效地解决了现有检测算法在无人机领域应用效果较差的问题.在该网络的设计中,首先用MobileNetV3替换YOLOv3的主干网络,并通过1×1卷积层提取场景信息.同时,构建场景上下文模块以筛选物体的细粒度特征.再采用完全交并比(CIOU)损失对损失函数中的边界框位置误差项进行优化.最后,在新建无人机航拍数据集上对所提算法进行训练与测试.实验结果表明,相较于YOLOv3算法,所提算法的平均检测精度提高了8.4个百分点,检测速度提高了5.8 frame/s.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号