首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 46 毫秒
1.
本文介绍了一种新的基于YOLOv5s的目标检测方法,旨在弥补当前主流检测方法在小目标安全帽佩戴检测方面的不足,提高检测精度和避免漏检.首先增加了一个小目标检测层,增加对小目标安全帽的检测精度;其次引入ShuffleAttention注意力机制,本文将ShuffleAttention的分组数由原来的64组减少为16组,更加有利于模型对深浅、大小特征的全局提取;最后增加SA-BiFPN网络结构,进行双向的多尺度特征融合,提取更加有效的特征信息.实验表明,和原YOLOv5s算法相比,改善后的算法平均精确率提升了1.7%,达到了92.5%,其中佩戴安全帽和未佩戴安全帽的平均精度分别提升了1.9%和1.4%.本文与其他目标检测算法进行对比测试,实验结果表明SAB-YOLOv5s算法模型仅比原始YOLOv5s算法模型增大了1.5M,小于其他算法模型,提高了目标检测的平均精度,减少了小目标检测中漏检、误检的情况,实现了准确且轻量级的安全帽佩戴检测.  相似文献   

2.
对于钢铁制造业、煤矿行业及建筑行业等高危行业来说,施工过程中佩戴安全帽是避免受伤的有效途径之一.针对目前安全帽佩戴检测模型在复杂环境下对小目标和密集目标存在误检和漏检等问题,提出一种改进YOLOv5的目标检测方法来对安全帽的佩戴进行检测.在YOLOv5的主干网络中添加坐标注意力机制(coordinate attenti...  相似文献   

3.
针对复杂施工环境下的安全帽佩戴检测模型存在误检和漏检问题,基于YOLOv5s实验,提出一种改进型目标检测算法SH-YOLO,用于检测施工现场中安全帽的佩戴情况。SH-YOLO方法基于YOLOv5s,在Backbone层嵌入SimAM注意力机制,在Backbone与Neck连接处使用SPPFCSPC方法来减少原模型的计算量和参数量。在自制的安全帽数据集上进行对比实验,结果表明,SHYOLO对安全帽的检测精度AP分别达到95.4%,较YOLOv5s分别提升6.7%,同时保持较低的参数量和较高的帧速。  相似文献   

4.
针对在智能监控中安全帽佩戴检测准确率低和检测速率慢的问题,提出一种基于改进YOLOv3(You Only Look Once)的安全帽佩戴检测算法YOLOv3-WH。在YOLOv3算法的基础上改进网络结构,增大输入图像的尺度,使用深度可分离卷积结构替换Darknet-53传统卷积,减少特征的丢失,缩减模型参数,提升检测速率;使用多尺度特征检测,增加浅层检测尺度,添加4倍上采样特征融合结构,提高安全帽佩戴检测准确率;优化[K]-Means聚类算法,获取安全帽佩戴检测的先验框(anchor box),按照预测尺度大小分配适合的anchor,提升模型训练和检测速率。实验结果表明YOLOv3-WH相比YOLOv3,每秒检测帧数(FPS)提高了64%,检测平均精确度(mAP)提高了6.5%,该算法在提升了安全帽佩戴检测速率的同时提升了检测的准确率,对安全帽佩戴检测具有一定的实用性。  相似文献   

5.
佩戴安全帽是施工过程中人员安全的重要保障之一,但现有的人工检测不仅耗时耗力而且无法做到实时监测,针对这一现象,提出了一种基于深度学习的安全帽佩戴检测算法。该算法以YOLOv5s网络为基础。在网络的主干网中引入CoordAtt坐标注意力机制模块,考虑全局信息,使得网络分配给安全帽更多的注意力,以此提升对小目标的检测能力;针对原主干网对特征融合不充分的问题,将主干网中的残差块替换成Res2NetBlock结构中的残差块,以此提升YOLOv5s在细粒度上的融合能力。实验结果表明:在自制的安全帽数据集中验证可知,与原有的YOLOv5算法相比,平均精度提升了2.3个百分点,速度提升了18 FPS,与YOLOv3算法相比,平均精度提升了13.8个百分点,速度提升了95 FPS,实现了更准确的轻量高效实时的安全帽佩戴检测。  相似文献   

6.
由于安全帽目标较小、环境复杂等因素的影响,易造成卷积神经网络的漏检与误检。为提高复杂环境中对安全帽的检测能力,提出一种基于YOLOv4的安全帽检测网络SR_YOLO。采用多尺度池化操作改进空间金字塔池化层,由分层卷积与scSE注意力模块组成特征增强模块,改进网络结构,分别提高对网络感受野信息的获取能力和对Neck网络的特征提取能力。利用Kmeans++算法对安全帽数据进行anchor尺寸优化,提高算法的检测准确率。实验结果表明,SR_YOLO的mAP为84.05%,较YOLOv4提高1.45%,每秒检测帧率为30 fps,能够实现安全帽佩戴情况的快速准确检测。  相似文献   

7.
针对建筑施工场地场景下远距离小目标安全帽佩戴检测问题,提出的一种改进YOLOv4的安全帽检测方法。将BN层和卷积层合并减少修改后的网络前向推理计算量,利用K-means聚类算法改进先验框维度,采用柔性NMS算法进行置信度权重修改解决标签重写问题,应用多尺度特征融合提升模型识别准确率。实验结果表明,该方法在安全帽数据集的检测任务中mAP提升2.91%;对低于32*32尺寸目标AP值相较于原算法提升6.02%,能够有效提升安全帽佩戴检测范围和准确率。  相似文献   

8.
对于工业及建筑行业来说,工作人员在施工过程中佩戴安全帽是避免伤害的有效途径之一。针对这一现象,提出了一种改进YOLOv5的安全帽检测算法。该算法以YOLOv5s网络为基础,在YOLOv5s的主干网络中添加CA坐标注意力机制模块。在颈部网络结构中将特征融合模块中原有特征金字塔模块替换为加权双向特征金字塔(BiFPN)网络结构,实现高效的双向跨尺度连接和加权特征融合。在自制安全帽数据集中验证可知,改进的YOLOv5模型平均精度达到了92.15%,相比于YOLOv5模型,平均精度提高了1.05个百分点,实现了对密集目标和遮挡目标准确、高效的安全帽检测。  相似文献   

9.
为了解决传统施工现场安全管理的弊端,减少因施工人员未佩戴安全帽造成的人员伤亡,本文提出一种基于深度学习的安全帽佩戴检测与跟踪方法。首先通过深度学习YOLOv3目标检测网络实现安全帽佩戴检测,进一步运用卡尔曼滤波器和KM算法实现多目标跟踪与计数。复杂施工现场的测试结果表明:网络模型的检测速度可达45 fps,平均精确度为93%,且未佩戴安全帽的查准率和查全率分别为97%和95%,基本能够实现安全帽佩戴情况的实时检测。  相似文献   

10.
新冠疫情仍在全球肆虐,佩戴口罩可以有效阻断新冠病毒传播,口罩佩戴检测系统能及时提醒公共场所活动的人佩戴口罩。针对该问题及小尺度目标检测困难的问题,提出了一种基于YOLOv3改进的网络模型Face_mask Net用于口罩佩戴检测。由于YOLOv3算法训练的网络模型对小目标检测率低,IoU值相同时不能反映预测框和目标框是否相交,以及传统NMS对于遮挡经常产生错误抑制情况,Face_mask Net改进了残差块和神经网络结构,引入SPP模块和CSPNet网络模块,并采用DIoU作为损失函数,DIoU-NMS算法作为分类器。实验结果表明,Face_mask Net可以有效提高目标检测准确率,AP75下的平均准确率为58.05%,相比由YOLOv3算法训练的网络模型提高了4.11%。  相似文献   

11.
佩戴安全帽对确保高危作业人员的生命安全至关重要。然而,由于施工现场活动范围广泛,从摄像头收集的安全帽图像具有相对较小、检测难度大的特点,容易出现漏检或错检的问题。因此,提出了一种基于改进YOLOv7的安全帽检测算法。使用Kmeans++算法聚类得到更优的先验边界框,在原YOLOv7中添加一个小目标检测层,同时加入卷积注意力机制模块(Convolutional Block Attention Module,CBAM),使网络更加关注输入图像的有效信息。为优化损失函数,使用Focal-EIoU替换了原YOLOv7网络模型中的完整的交并比(Complete Intersectionover Union,CIoU),从而减少损失函数自由度,提高模型性能。实验采用了百度飞桨公开的安全帽数据集进行训练。结果表明,改进算法的准确率达到92.2%,召回率达到91.6%,全类别平均正确率(mean Average Precision,mAP)提升1.4个百分点。提出的改进算法有效降低了漏检率及错检率,在安全帽佩戴检测中表现出良好的性能。  相似文献   

12.
针对无人机航拍图像中目标小、尺度不一和背景复杂等导致检测精度低的问题,提出一种基于改进YOLOv5的无人机航拍图像目标检测算法DY-YOLOv5。该算法在检测头部分利用具有多重注意力机制的目标检测头方法Dynamic Head,提升检测头在复杂背景下的检测表现。在原模型neck部分增加一次上采样和Concat操作,并执行一个包含极小、小、中目标的多尺度特征检测,提升模型对中、小目标的特征提取能力。引入密集卷积网络DenseNet,将其与YOLOv5s主干网络的C3模块进行融合,提出C3_DenseNet模块,以加强特征传递并预防模型过拟合。在VisDrone2019数据集上应用DY-YOLOv5算法,平均精度均值(mAP)达到了43.9%,较原YOLOv5算法提升了11.4个百分点。召回率(Recall)为41.7%,较原算法提升了9.0个百分点。实验结果证明,改进算法显著提高了无人机航拍图像目标检测的精度。  相似文献   

13.
为了解决现有安全帽佩戴数据集样本数量有限导致模型检测精度较低的问题,提出一种基于场景增强的样本扩充算法。该算法将训练集中随机抽取的图像中的检测目标随机缩放后,粘贴到另一随机场景图像上的任意位置,基于现有场景构建出拥有新的检测目标的增强场景,通过场景增强扩充安全帽佩戴训练数据集,增加训练数据集的多样性。为了验证该算法在安全帽佩戴检测中的有效性,使用场景增强算法扩充HelmetWear数据集,并用其训练基于YOLO v4的安全帽佩戴检测模型,通过检测精度评估场景增强算法。在HelmetWear数据集上检测精度达到93.81%,检测精度提升了6.39个百分点。实验结果表明该算法能有效提升安全帽佩戴检测的精度,特别是在样本最为欠缺的小目标上表现更为显著;场景增强算法对解决其他领域目标检测训练数据不足的问题有重要的借鉴意义。  相似文献   

14.
于晓  张茂松  周子杰 《软件工程》2023,(1):38-41+14
准确检测人员是否佩戴口罩对于保证食品生产环境的卫生、预防疾病的传播等具有重要意义。文章改进了YOLOv5算法的网络结构,首先基于双向特征金字塔网络(BiFPN)改进了YOLOv5网络的颈部(Neck)结构,然后使用K-means聚类算法对数据集进行聚类分析,提出YOLOv5_BM口罩人脸检测算法。在自制人脸口罩数据集上的测试结果表明,YOLOv5_BM算法的平均精度高达95.3%,相比YOLOv5网络提升了3.8%。在公开数据集上与其他经典的目标检测算法相比,YOLOv5_BM算法在性能方面也取得了提升,相比SSD算法,YOLOv5_BM算法的平均精度提高了4.4%;相比YOLOv3算法,YOLOv5_BM算法的平均精度提高了2.9%。  相似文献   

15.
针对目前施工现场的安全帽检测方法存在遮挡目标检测难度大、误检漏检率高的问题,提出一种改进YOLOv5的安全帽检测方法;首先,使用K-means++聚类算法重新设计匹配安全帽数据集的先验锚框尺寸;其次,使用Swin Transformer作为YOLOv5的骨干网络来提取特征,基于可移位窗口的Multi-head自注意力机制能建模不同空间位置特征之间的依赖关系,有效地捕获全局上下文信息,具有更好的特征提取能力;再次,提出C3-Ghost模块,基于Ghost Bottleneck对YOLOv5的C3模块进行改进,旨在通过低成本的操作生成更多有价值的冗余特征图,有效减少模型参数和计算复杂度;最后,基于双向特征金字塔网络跨尺度特征融合的结构优势提出新型跨尺度特征融合模块,更好地适应不同尺度的目标检测任务;实验结果表明,与原始YOLOv5相比,改进的YOLOv5在安全帽检测任务上的mAP@.5:.95指标提升了2.3%,检测速度达到每秒35.2帧,满足复杂施工场景下安全帽佩戴检测的准确率和实时性要求。  相似文献   

16.
对于配电线网施工作业这一类高危行业而言,在施工过程中按照安全守则佩戴安全帽是避免事故发生的有效途径之一。由于配电线网施工环境复杂多变,导致现有的安全帽识别方法在自然场景下常出现误检漏检的问题且不能满足实时性需求。为提高自然场景下的安全帽识别准确率以及识别效率,提出一种面向自然场景下配电线网施工的安全帽佩戴识别检测网络模型YOLO-ACON-Attention。该方法以YOLOv5算法为基础,采用自适应判断激活函数取代原有的激活函数,加强模型检测能力。在骨干网络中使用二轮四向IRNN网络构造自适应注意力模块提升模型的图像信息特征提取能力。实验结果证明,与原YOLOv5算法相比,该算法的精确率和召回率为94.75%和89.29%,分别提高了7.65%和5.17%,检测速度为36.5 FPS。  相似文献   

17.
针对现有的对安全帽佩戴检测算法的参数多、网络复杂、计算量大、不利于在嵌入式等设备进行部署,且对遮挡目标辨别度差等问题,提出了一种改进的轻量级的安全帽检测算法YOLO-M3,先将YOLOv5s主干网络替换为MobileNetV3来进行特征提取,降低了网络的参数量和计算量.使用DIoU-NMS替换NMS,提高对遮挡目标的辨...  相似文献   

18.
煤矿工人在井下开展生产作业时,头戴安全帽是有效保障其人身安全的重要防护措施,近年来由于未佩戴安全帽造成的事故层出不穷。针对这个问题,设计了安全帽佩戴检测算法。首先使用煤矿井下摄像头拍摄图像、公开数据集和网络爬虫的方式构建数据集,其次使用YOLOv5对构建的数据集进行训练,训练出安全帽检测模型,最后把训练的模型部署到监控终端进行测试。测试结果表明,设计的算法能够正确识别作业人员是否佩戴安全帽。  相似文献   

19.
安全帽是施工人员的安全保障,但是现有安全帽检测模型在复杂环境下对重叠和密集小目标存在误检和漏检等问题,为此提出改进YOLOv5的小目标检测算法。在YOLOv5的主干网络中加入Transformer捕获多个尺度上的全局信息,获得更丰富的高层语义特征;使用GsConv卷积进行特征融合增强,并引入坐标注意力机制(coordinate attention),让网络在更大区域上进行注意;检测头将分类和回归进行解耦,加快收敛速度;使用无锚点(anchor-free)的检测方法,简化算法结构,加快检测速度;使用EIOU损失函数来优化边框预测的准确度。在自制安全帽数据集上实验结果表明,改进的YOLOv5模型平均精度达到了96.33%,相比于YOLOv5模型,平均精度提高了4.73个百分点,达到了在复杂条件下对重叠和密集小目标检测的要求。  相似文献   

20.
目的 在施工现场,安全帽是最为常见和实用的个人防护用具,能够有效防止和减轻意外带来的头部伤害。但在施工现场的安全帽佩戴检测任务中,经常出现难以检测到小目标,或因为复杂多变的环境因素导致检测准确率降低等情况。针对这些问题,提出一种融合环境特征与改进YOLOv4(you only look once version 4)的安全帽佩戴检测方法。方法 为补充卷积池化等过程中丢失的特征,在保证YOLOv4得到的3种不同大小的输出特征图与原图经过特征提取得到的特征图感受野一致的情况下,将两者相加,融合高低层特征,捕捉更多细节信息;对融合后的特征图采用3×3卷积操作,以减小特征图融合后的混叠效应,保证特征稳定性;为适应施工现场的各种环境,利用多种数据增强方式进行环境模拟,并采用对抗训练方法增强模型的泛化能力和鲁棒性。结果 提出的改进YOLOv4方法在开源安全帽佩戴检测数据集(safety helmet wearing dataset,SHWD)上进行测试,平均精度均值(mean average precision,mAP)达到91.55%,较当前流行的几种目标检测算法性能有所提升,其中相比于YOLOv4,mAP提高了5.2%。此外,改进YOLOv4方法在融合环境特征进行数据增强后,mAP提高了4.27%,在各种真实环境条件下进行测试时都有较稳定的表现。结论 提出的融合环境特征与改进YOLOv4的安全帽佩戴检测方法,以改进模型和数据增强的方式提升模型准确率、泛化能力和鲁棒性,为安全帽佩戴检测提供了有效保障。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号