首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 78 毫秒
1.
本文介绍了一种新的基于YOLOv5s的目标检测方法,旨在弥补当前主流检测方法在小目标安全帽佩戴检测方面的不足,提高检测精度和避免漏检.首先增加了一个小目标检测层,增加对小目标安全帽的检测精度;其次引入ShuffleAttention注意力机制,本文将ShuffleAttention的分组数由原来的64组减少为16组,更加有利于模型对深浅、大小特征的全局提取;最后增加SA-BiFPN网络结构,进行双向的多尺度特征融合,提取更加有效的特征信息.实验表明,和原YOLOv5s算法相比,改善后的算法平均精确率提升了1.7%,达到了92.5%,其中佩戴安全帽和未佩戴安全帽的平均精度分别提升了1.9%和1.4%.本文与其他目标检测算法进行对比测试,实验结果表明SAB-YOLOv5s算法模型仅比原始YOLOv5s算法模型增大了1.5M,小于其他算法模型,提高了目标检测的平均精度,减少了小目标检测中漏检、误检的情况,实现了准确且轻量级的安全帽佩戴检测.  相似文献   

2.
张锦  屈佩琪  孙程  罗蒙 《计算机应用》2022,42(4):1292-1300
针对现有安全帽佩戴检测干扰性强、检测精度低等问题,提出一种基于改进YOLOv5的安全帽检测新算法。首先,针对安全帽尺寸不一的问题,使用K-Means++算法重新设计先验框尺寸并将其匹配到相应的特征层;其次,在特征提取网络中引入多光谱通道注意力模块,使网络能够自主学习每个通道的权重,增强特征间的信息传播,从而加强网络对前景和背景的辨别能力;最后,在训练迭代过程中随机输入不同尺寸的图像,以此增强算法的泛化能力。实验结果表明,在自制安全帽佩戴检测数据集上,所提算法的均值平均精度(mAP)达到96.0%,而对佩戴安全帽的工人的平均精度(AP)达到96.7%,对未佩戴安全帽的工人的AP达到95.2%,相较于YOLOv5算法,该算法对佩戴安全帽的平均检测准确率提升了3.4个百分点,满足施工场景下安全帽佩戴检测的准确率要求。  相似文献   

3.
针对复杂施工环境下的安全帽佩戴检测模型存在误检和漏检问题,基于YOLOv5s实验,提出一种改进型目标检测算法SH-YOLO,用于检测施工现场中安全帽的佩戴情况。SH-YOLO方法基于YOLOv5s,在Backbone层嵌入SimAM注意力机制,在Backbone与Neck连接处使用SPPFCSPC方法来减少原模型的计算量和参数量。在自制的安全帽数据集上进行对比实验,结果表明,SHYOLO对安全帽的检测精度AP分别达到95.4%,较YOLOv5s分别提升6.7%,同时保持较低的参数量和较高的帧速。  相似文献   

4.
对于工业及建筑行业来说,工作人员在施工过程中佩戴安全帽是避免伤害的有效途径之一。针对这一现象,提出了一种改进YOLOv5的安全帽检测算法。该算法以YOLOv5s网络为基础,在YOLOv5s的主干网络中添加CA坐标注意力机制模块。在颈部网络结构中将特征融合模块中原有特征金字塔模块替换为加权双向特征金字塔(BiFPN)网络结构,实现高效的双向跨尺度连接和加权特征融合。在自制安全帽数据集中验证可知,改进的YOLOv5模型平均精度达到了92.15%,相比于YOLOv5模型,平均精度提高了1.05个百分点,实现了对密集目标和遮挡目标准确、高效的安全帽检测。  相似文献   

5.
在生产和作业场地中,工人由于不佩戴安全帽而引发的安全事故时有发生。为了降低由于未佩戴安全帽而引发的安全事故发生率,提出了一种基于改进YOLO v3算法的安全帽佩戴检测方法。通过采用图像金字塔结构获取不同尺度的特征图,用于位置和类别预测;使用施工现场出入口监控视频作为数据集进行目标框维度聚类,确定目标框参数;在训练迭代过程中改变输入图像的尺寸,增加模型对尺度的适应性。理论分析和实验结果表明,在安全帽佩戴检测任务中,mAP(Mean Average Precision)达到了92.13%,检测速率提高到62?f/s,其检测准确率与检测速率相较于YOLO v3均略有提高,所提算法不仅满足安全帽佩戴检测中检测任务的实时性,同时具有较高的检测准确率。  相似文献   

6.
由于安全帽目标较小、环境复杂等因素的影响,易造成卷积神经网络的漏检与误检。为提高复杂环境中对安全帽的检测能力,提出一种基于YOLOv4的安全帽检测网络SR_YOLO。采用多尺度池化操作改进空间金字塔池化层,由分层卷积与scSE注意力模块组成特征增强模块,改进网络结构,分别提高对网络感受野信息的获取能力和对Neck网络的特征提取能力。利用Kmeans++算法对安全帽数据进行anchor尺寸优化,提高算法的检测准确率。实验结果表明,SR_YOLO的mAP为84.05%,较YOLOv4提高1.45%,每秒检测帧率为30 fps,能够实现安全帽佩戴情况的快速准确检测。  相似文献   

7.
佩戴安全帽对确保高危作业人员的生命安全至关重要。然而,由于施工现场活动范围广泛,从摄像头收集的安全帽图像具有相对较小、检测难度大的特点,容易出现漏检或错检的问题。因此,提出了一种基于改进YOLOv7的安全帽检测算法。使用Kmeans++算法聚类得到更优的先验边界框,在原YOLOv7中添加一个小目标检测层,同时加入卷积注意力机制模块(Convolutional Block Attention Module,CBAM),使网络更加关注输入图像的有效信息。为优化损失函数,使用Focal-EIoU替换了原YOLOv7网络模型中的完整的交并比(Complete Intersectionover Union,CIoU),从而减少损失函数自由度,提高模型性能。实验采用了百度飞桨公开的安全帽数据集进行训练。结果表明,改进算法的准确率达到92.2%,召回率达到91.6%,全类别平均正确率(mean Average Precision,mAP)提升1.4个百分点。提出的改进算法有效降低了漏检率及错检率,在安全帽佩戴检测中表现出良好的性能。  相似文献   

8.
针对目前目标检测模型结构复杂、计算量大、检测准确率低等问题,提出在工业场景下基于改进型YOLOv5的安全帽佩戴算法。在主干网络引入轻量型网络ShuffleNetv2,保留Focus结构和ShuffleNetv2共同组成主干网络,降低网络的计算量和参数量;在C3模块中引入Swin Transformer Block,得到C3STB模块,替换Neck部分原有的C3模块;设计了CBAM_H注意力机制,并将其嵌入Neck网络中,获取全局上下文信息,提高模型检测准确率。自建数据集并进行实验,实验结果表明,改进后的YOLOv5模型的参数量由6.14×106压缩到8.9×105,计算量由1.64×1010压缩到6.2×109,mAP由0.899上升到0.908,优于原模型性能。  相似文献   

9.
李维娜  李爽 《软件》2023,(3):179-183
现有的YOLOv5模型无法精确检测出进入复杂施工现场内的人员佩戴安全帽问题,本文提出了一种基于YOLOv5的安全帽检测算法。模型的具体改进方法为:在主干网络中新增了一个小目标层P2和3-D注意力机制SimAM,提升算法的特征提取能力便于能够更容易检测出小目标;将边框损失函数CIoU_Loss改为SIo U_Loss,以提升对小目标检测的训练速度与精度,从而得到一种新的安全帽佩戴检测模型。实验结果显示,修改后的YOLOv5s算法大大提高了复杂工程现场安全帽检测的准确率,较原有的算法提高了1.4个百分点,mAP值达到了95.5%。  相似文献   

10.
针对现有的对安全帽佩戴检测算法的参数多、网络复杂、计算量大、不利于在嵌入式等设备进行部署,且对遮挡目标辨别度差等问题,提出了一种改进的轻量级的安全帽检测算法YOLO-M3,先将YOLOv5s主干网络替换为MobileNetV3来进行特征提取,降低了网络的参数量和计算量.使用DIoU-NMS替换NMS,提高对遮挡目标的辨...  相似文献   

11.
为了解决在实际道路场景中对摩托车驾乘者头盔佩戴情况的检测与跟踪问题,提出一种优化的DeepSORT多目标跟踪摩托车头盔检测算法。使用改进的YOLOv3算法作为目标检测器,该方法采用MobileNetv3-Large作为YOLOv3特征提取网络,以轻量化网络结构,借鉴CEM模块的思想,引入SoftPool池化层和SE模块,构建了深浅语义融合增强模块,加强网络对输入特征深浅语义的编码能力。为了实现摩托车头盔佩戴分类和DeepSORT算法中外观特征识别模型的优化,构建多任务学习框架,通过对比损失函数和改进的交叉损失函数对多任务网络进行迭代训练来提升相似度学习能力和实现最终头盔佩戴情况分类。实验结果表明:在目标检测方面,改进网络的摩托车检测精度相较原始算法提升了4.56个百分点,模型大小仅为YOLOv3的13.7%。结合DeepSORT算法,多目标跟踪准确率相较于YOLOv3-DeepSORT算法从51.6%提升到了67.5%,多目标跟踪精度从57.3%提升到75.6%,检测追踪速度由6 FPS提升到了20 FPS,最终的NPH模型检测分类精度为72.42%。实现了对实际道路中摩托车驾乘人员头...  相似文献   

12.
佩戴安全帽能够保护生产工作者头部免受坠物撞击带来的伤害。轧钢车间存在空间跨度大、作业设备繁多、环境杂乱、昼夜光照差别大、炫光、监控目标尺度变化范围大等问题,增加了安全帽佩戴检测难度。针对上述问题,设计了基于改进YOLOv7模型的轧钢车间安全帽佩戴检测方案;算法基于NWD方法改进损失函数以提高目标检测精度,并在SPPCSPC模块上增加了BiFormer模块,使模型对小目标具有更好的检测精度,同时不会增加运算负担,优于其他注意力机制。在自建安全帽数据集上对改进的YOLOv7模型进行训练,实验表明,改进的YOLOv7模型平均精度均值为99.3%,检测速度达82FPS,与其他主流算法、改进算法对比,改进YOLOv7的mAP指标最高,大大超过了其他模型的指标,同时检测速度基本与改进模型前相差不大,并没有因为精度提高而明显降低检测速度,有较好效果。  相似文献   

13.
针对在智能监控中安全帽佩戴检测准确率低和检测速率慢的问题,提出一种基于改进YOLOv3(You Only Look Once)的安全帽佩戴检测算法YOLOv3-WH.在YOLOv3算法的基础上改进网络结构,增大输入图像的尺度,使用深度可分离卷积结构替换Darknet-53传统卷积,减少特征的丢失,缩减模型参数,提升检测...  相似文献   

14.
在施工现场中, 安全帽能够减轻对头部的伤害, 且不同颜色的安全帽代表不同的身份, 基于当前施工现场通过视频监控来对工人安全帽的佩戴以及工种身份识别存在一定的耗时性, 不完全性, 监督效率低等问题, 本文提出了一种基于YOLOv4改进的安全帽佩戴检测以及身份识别的方法, 在原始的YOLOv4的基础之上, 使用K-means算法对先验框的大小重新进行聚类分析处理, 增加多尺度预测输出, 实现DIoU NMS进行非极大值抑制, 从而使工人安全帽佩戴及身份识别达到高效性, 全面性. 结果表明, 佩戴红、蓝、黄、白安全帽和未佩戴安全帽工人平均检测准确率达到92.1%, 从而保证能够实现对施工现场工人安全帽的佩戴达到一种实时监控.  相似文献   

15.
对于钢铁制造业、煤矿行业及建筑行业等高危行业来说,施工过程中佩戴安全帽是避免受伤的有效途径之一.针对目前安全帽佩戴检测模型在复杂环境下对小目标和密集目标存在误检和漏检等问题,提出一种改进YOLOv5的目标检测方法来对安全帽的佩戴进行检测.在YOLOv5的主干网络中添加坐标注意力机制(coordinate attenti...  相似文献   

16.
Safety helmet-wearing detection is an essential part of the intelligent monitoring system. To improve the speed and accuracy of detection, especially small targets and occluded objects, it presents a novel and efficient detector model. The underlying core algorithm of this model adopts the YOLOv5 (You Only Look Once version 5) network with the best comprehensive detection performance. It is improved by adding an attention mechanism, a CIoU (Complete Intersection Over Union) Loss function, and the Mish activation function. First, it applies the attention mechanism in the feature extraction. The network can learn the weight of each channel independently and enhance the information dissemination between features. Second, it adopts CIoU loss function to achieve accurate bounding box regression. Third, it utilizes Mish activation function to improve detection accuracy and generalization ability. It builds a safety helmet-wearing detection data set containing more than 10,000 images collected from the Internet for preprocessing. On the self-made helmet wearing test data set, the average accuracy of the helmet detection of the proposed algorithm is 96.7%, which is 1.9% higher than that of the YOLOv5 algorithm. It meets the accuracy requirements of the helmet-wearing detection under construction scenarios.  相似文献   

17.
针对已有的安全帽检测方法存在的模型参数量大,难以部署在边缘设备上,以及对较小目标检测效果不好等问题,提出一种改进YOLOv4-tiny的轻量级安全帽检测模型。针对小目标丢失过多问题,增加了检测小目标的尺度,提升模型关注小目标的能力。提出了一种轻量级特征融合结构,缓解特征融合部分的语义混叠问题,并且在模型中融入了优化的注意力模块,提升模型捕获上下文信息的能力。针对分类与回归任务之间的冲突,将模型预测头替换为解耦合的预测头,采用并行的卷积分别进行分类与回归任务。将改进的模型命名为HM-YOLO,通过实验验证了HM-YOLO算法的有效性,相比YOLOv4-tiny模型,HM-YOLO模型平均精度提升了14.2个百分点,参数量减少了19%,检测速度为为63 FPS,具有良好的检测精度和实时性,更易于部署在边缘设备上。  相似文献   

18.
安全帽作为施工场所工人的安全保障,佩戴与否影响着工人的生命安全。在佩戴检测方面引入深度学习可以高效地提醒工人佩戴安全帽。但由于施工图像中安全帽的图像过小,CenterNet表现得并不好。因此针对这个情况,提出了FPN-CenterNet框架;使用ACNet非对称卷积核来对主干网络的特征提取进行增强;使用DIoU损失函数来优化边框预测的准确度。最终修改的算法相较于原始的CenterNet算法mAP提升了4.99个百分点,在GTX GeForce 1050的GPU上的FPS达到25.81。实验结果表明修改之后的算法在安全帽佩戴检测上有良好的准确性和效率。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号