首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 234 毫秒
1.
为减少一线工人由于未佩戴安全帽而造成的意外安全事故,提出一种改进YOLOv4网络和视频监控相结合检测佩戴安全帽的方法。采用聚类算法获取适用于安全帽数据集的先验框,通过对YOLO v4网络增加注意力机制模块聚焦安全帽特征,选用新的边界框回归损失函数CIoU提高检测精度,使用MAL(Multiple Anchor Learning)学习策略减少漏检概率。实验结果表明,改进后的方法在测试集上的mAP达到了96.32%,识别速率为每秒42帧,与YOLOv3算法相比提升了8.73百分点。该方法在安全帽佩戴检测中既满足视频监控的检测实时性的要求,还能较准确地检测一线工人是否佩戴安全帽。  相似文献   

2.
由于施工环境的复杂性,基于机器视觉的安全帽识别方法常常出现误检与漏检的情况。为提高复杂环境下安全帽识别的准确率,同时满足实时性要求,提出一种基于视觉感受野特性的轻量化高精度卷积神经网络。该卷积神经网络以RFBnet网络为基础,增加特征金字塔网络模块,使神经网络同时兼顾浅层语义信息和深层语义信息的表示能力,以实现复杂施工环境下不同形态与大小安全帽的识别。采用SE-Ghost模块在保持网络特征提取能力不变的情况下,对主干网络结构进行轻量化。为验证方法的性能,将基于感受野特性的轻量化卷积神经网络和当前主要卷积神经网络进行实验对比,结果表明,所提网络模型的检测准确率较YOLO-v3、RFBnet-300和RFBnet-512网络分别提高了1.60个百分点、3.62个百分点和0.98个百分点,检测速度达到20?frame/s。  相似文献   

3.
在工业生产中,安全帽对人体头部提供了较好的安全保障。在现场环境中,检验施工人员是否佩戴安全帽主要依靠人工检查,因而效率非常低。为了解决施工现场安全帽检测识别难题,提出一种基于深度级联网络模型的安全帽检测方法。首先通过You Only Look Once version 4 (YOLOv4)检测网络对施工人员进行检测;然后运用注意力机制残差分类网络对人员ROI区域进行分类判断,识别其是否佩戴安全帽。该方法在Ubuntu18.04系统和Pytorch深度学习框架的实验环境中进行,在自主制作工业场景安全帽数据集中进行训练和测试实验。实验结果表明,基于深度级联网络的安全帽识别模型与YOLOv4算法相比,准确率提高了2个百分点,有效提升施工人员安全帽检测效果。  相似文献   

4.
在施工现场中, 安全帽能够减轻对头部的伤害, 且不同颜色的安全帽代表不同的身份, 基于当前施工现场通过视频监控来对工人安全帽的佩戴以及工种身份识别存在一定的耗时性, 不完全性, 监督效率低等问题, 本文提出了一种基于YOLOv4改进的安全帽佩戴检测以及身份识别的方法, 在原始的YOLOv4的基础之上, 使用K-means算法对先验框的大小重新进行聚类分析处理, 增加多尺度预测输出, 实现DIoU NMS进行非极大值抑制, 从而使工人安全帽佩戴及身份识别达到高效性, 全面性. 结果表明, 佩戴红、蓝、黄、白安全帽和未佩戴安全帽工人平均检测准确率达到92.1%, 从而保证能够实现对施工现场工人安全帽的佩戴达到一种实时监控.  相似文献   

5.
对于配电线网施工作业这一类高危行业而言,在施工过程中按照安全守则佩戴安全帽是避免事故发生的有效途径之一。由于配电线网施工环境复杂多变,导致现有的安全帽识别方法在自然场景下常出现误检漏检的问题且不能满足实时性需求。为提高自然场景下的安全帽识别准确率以及识别效率,提出一种面向自然场景下配电线网施工的安全帽佩戴识别检测网络模型YOLO-ACON-Attention。该方法以YOLOv5算法为基础,采用自适应判断激活函数取代原有的激活函数,加强模型检测能力。在骨干网络中使用二轮四向IRNN网络构造自适应注意力模块提升模型的图像信息特征提取能力。实验结果证明,与原YOLOv5算法相比,该算法的精确率和召回率为94.75%和89.29%,分别提高了7.65%和5.17%,检测速度为36.5 FPS。  相似文献   

6.
在施工人员复杂姿态下,现有安全帽佩戴检测方法存在检测难度大,精度不高的问题,提出一种基于头部识别的安全帽佩戴检测方法。通过肤色特征识别和头部检测获取头部区域,并进行交叉验证确定头部区域,使用YOLOv4目标检测网络识别安全帽,通过安全帽区域与头部区域的位置关系判断安全帽佩戴情况。最后,通过实验对比分析其他安全帽佩戴检测方法的性能,对安全帽佩戴检测方法进行总结并提出展望。  相似文献   

7.
本文介绍了一种新的基于YOLOv5s的目标检测方法,旨在弥补当前主流检测方法在小目标安全帽佩戴检测方面的不足,提高检测精度和避免漏检.首先增加了一个小目标检测层,增加对小目标安全帽的检测精度;其次引入ShuffleAttention注意力机制,本文将ShuffleAttention的分组数由原来的64组减少为16组,更加有利于模型对深浅、大小特征的全局提取;最后增加SA-BiFPN网络结构,进行双向的多尺度特征融合,提取更加有效的特征信息.实验表明,和原YOLOv5s算法相比,改善后的算法平均精确率提升了1.7%,达到了92.5%,其中佩戴安全帽和未佩戴安全帽的平均精度分别提升了1.9%和1.4%.本文与其他目标检测算法进行对比测试,实验结果表明SAB-YOLOv5s算法模型仅比原始YOLOv5s算法模型增大了1.5M,小于其他算法模型,提高了目标检测的平均精度,减少了小目标检测中漏检、误检的情况,实现了准确且轻量级的安全帽佩戴检测.  相似文献   

8.
施工人员佩戴安全帽是安全生产的重要一环,为保障工人生命安全,同时克服传统人工巡检费时费力的缺点,提出了一种基于Single Shot MultiBox Detector(SSD)改进的安全帽检测新方法。针对安全帽数据集内目标尺度偏小,尺度分布不均衡,对SSD模型结构进行改进,添加用以特征融合的分支网络,增强浅层特征图语义,引入该网络后SSD300的mAP-50(mean Average Precision)相应提升2.3个百分点,且SSD300实时检测速率仅降低1.3 frame/s,达到39.6 frame/s。为使SSD模型的先验框与有效感受野匹配,对SSD默认框设置方法进行改进,引入可变参数间接调节先验框大小,改进后的SSD300与SSD512的mAP分别达到74.6%与82.5%。安全帽数据集测试结果表明,改进后的SSD模型对安全帽佩戴检测具有优秀的准确性与良好的实时性,基本满足实际应用需求。  相似文献   

9.
变电站作为电力系统中重要一环,保证变电站作业人员的安全是至关重要的。为了自动检测作业人员是否正确穿着工作服佩戴安全帽,提出一种基于Transformer自注意力编码特征融合轻量级的目标检测网络。通过采用轻量级的主干网络提取特征,注意力机制融合多尺度特征。提出了质量焦点损失方法,改善目标检测模型训练和测试阶段推理过程不一致问题。同时,采集并标注变电站场景下人员工作服安全帽数据5?200张。将提出的轻量级目标模型在自制的工作服安全帽数据集上训练,并在测试集上验证,该目标检测方法识别mAP达44.6%,AP50达79.5%,达到117 FPS。  相似文献   

10.
对于钢铁制造业、煤矿行业及建筑行业等高危行业来说,施工过程中佩戴安全帽是避免受伤的有效途径之一。针对目前安全帽佩戴检测模型在复杂环境下对小目标和密集目标存在误检和漏检等问题,提出一种改进YOLOv5的目标检测方法来对安全帽的佩戴进行检测。在YOLOv5的主干网络中添加坐标注意力机制(coordinate attention),该机制将位置信息嵌入到通道注意力当中,使网络可以在更大区域上进行注意。将特征融合模块中原有特征金字塔模块替换成加权双向特征金字塔(BiFPN)网络结构,实现高效的双向跨尺度连接和加权特征融合。在自制安全帽数据集上实验结果表明,改进的YOLOv5模型平均精度达到了95.9%,相比于YOLOv5模型,平均精度提高了5.1个百分点,达到了在复杂环境下对小目标和密集目标检测的要求。  相似文献   

11.
为了解决在实际道路场景中对摩托车驾乘者头盔佩戴情况的检测与跟踪问题,提出一种优化的DeepSORT多目标跟踪摩托车头盔检测算法。使用改进的YOLOv3算法作为目标检测器,该方法采用MobileNetv3-Large作为YOLOv3特征提取网络,以轻量化网络结构,借鉴CEM模块的思想,引入SoftPool池化层和SE模块,构建了深浅语义融合增强模块,加强网络对输入特征深浅语义的编码能力。为了实现摩托车头盔佩戴分类和DeepSORT算法中外观特征识别模型的优化,构建多任务学习框架,通过对比损失函数和改进的交叉损失函数对多任务网络进行迭代训练来提升相似度学习能力和实现最终头盔佩戴情况分类。实验结果表明:在目标检测方面,改进网络的摩托车检测精度相较原始算法提升了4.56个百分点,模型大小仅为YOLOv3的13.7%。结合DeepSORT算法,多目标跟踪准确率相较于YOLOv3-DeepSORT算法从51.6%提升到了67.5%,多目标跟踪精度从57.3%提升到75.6%,检测追踪速度由6 FPS提升到了20 FPS,最终的NPH模型检测分类精度为72.42%。实现了对实际道路中摩托车驾乘人员头...  相似文献   

12.
在生产和作业场地中,工人由于不佩戴安全帽而引发的安全事故时有发生。为了降低由于未佩戴安全帽而引发的安全事故发生率,提出了一种基于改进YOLO v3算法的安全帽佩戴检测方法。通过采用图像金字塔结构获取不同尺度的特征图,用于位置和类别预测;使用施工现场出入口监控视频作为数据集进行目标框维度聚类,确定目标框参数;在训练迭代过程中改变输入图像的尺寸,增加模型对尺度的适应性。理论分析和实验结果表明,在安全帽佩戴检测任务中,mAP(Mean Average Precision)达到了92.13%,检测速率提高到62?f/s,其检测准确率与检测速率相较于YOLO v3均略有提高,所提算法不仅满足安全帽佩戴检测中检测任务的实时性,同时具有较高的检测准确率。  相似文献   

13.
为了解决传统施工现场安全管理的弊端,减少因施工人员未佩戴安全帽造成的人员伤亡,本文提出一种基于深度学习的安全帽佩戴检测与跟踪方法。首先通过深度学习YOLOv3目标检测网络实现安全帽佩戴检测,进一步运用卡尔曼滤波器和KM算法实现多目标跟踪与计数。复杂施工现场的测试结果表明:网络模型的检测速度可达45 fps,平均精确度为93%,且未佩戴安全帽的查准率和查全率分别为97%和95%,基本能够实现安全帽佩戴情况的实时检测。  相似文献   

14.
针对目前施工现场的安全帽检测方法存在遮挡目标检测难度大、误检漏检率高的问题,提出一种改进YOLOv5的安全帽检测方法;首先,使用K-means++聚类算法重新设计匹配安全帽数据集的先验锚框尺寸;其次,使用Swin Transformer作为YOLOv5的骨干网络来提取特征,基于可移位窗口的多头自注意力机制能建模不同空间位置特征之间的依赖关系,有效地捕获全局上下文信息,具有更好的特征提取能力;再次,提出C3-Ghost模块,基于Ghost Bottleneck对YOLOv5的C3模块进行改进, 旨在通过低成本的操作生成更多有价值的冗余特征图,有效减少模型参数和计算复杂度;最后,基于双向特征金字塔网络跨尺度特征融合的结构优势提出新型跨尺度特征融合模块,更好地适应不同尺度的目标检测任务;实验结果表明,与原始YOLOv5相比,改进的YOLOv5在安全帽检测任务上的mAP@.5:.95指标提升了2.3%,满足复杂施工场景下安全帽佩戴检测的准确率要求。  相似文献   

15.
佩戴安全帽是施工过程中人员安全的重要保障之一,但现有的人工检测不仅耗时耗力而且无法做到实时监测,针对这一现象,提出了一种基于深度学习的安全帽佩戴检测算法。该算法以YOLOv5s网络为基础。在网络的主干网中引入CoordAtt坐标注意力机制模块,考虑全局信息,使得网络分配给安全帽更多的注意力,以此提升对小目标的检测能力;针对原主干网对特征融合不充分的问题,将主干网中的残差块替换成Res2NetBlock结构中的残差块,以此提升YOLOv5s在细粒度上的融合能力。实验结果表明:在自制的安全帽数据集中验证可知,与原有的YOLOv5算法相比,平均精度提升了2.3个百分点,速度提升了18 FPS,与YOLOv3算法相比,平均精度提升了13.8个百分点,速度提升了95 FPS,实现了更准确的轻量高效实时的安全帽佩戴检测。  相似文献   

16.
针对已有安全帽佩戴检测算法对部分遮挡、尺寸不一和小目标存在检测难度大、准确率低的问题,提出了基于改进的Faster RCNN和多部件结合的安全帽佩戴检测方法。在原始Faster RCNN上运用多尺度训练和增加锚点数量增强网络检测不同尺寸目标的鲁棒性,并引入防止正负样本不均衡的在线困难样本挖掘策略,然后对检测出的佩戴安全帽工人和安全帽等采用多部件结合方法剔除误检目标。实验表明,相比于原始Faster RCNN,检测准确率提高了7%,对环境的适应性更强。  相似文献   

17.
针对在智能监控中安全帽佩戴检测准确率低和检测速率慢的问题,提出一种基于改进YOLOv3(You Only Look Once)的安全帽佩戴检测算法YOLOv3-WH。在YOLOv3算法的基础上改进网络结构,增大输入图像的尺度,使用深度可分离卷积结构替换Darknet-53传统卷积,减少特征的丢失,缩减模型参数,提升检测速率;使用多尺度特征检测,增加浅层检测尺度,添加4倍上采样特征融合结构,提高安全帽佩戴检测准确率;优化[K]-Means聚类算法,获取安全帽佩戴检测的先验框(anchor box),按照预测尺度大小分配适合的anchor,提升模型训练和检测速率。实验结果表明YOLOv3-WH相比YOLOv3,每秒检测帧数(FPS)提高了64%,检测平均精确度(mAP)提高了6.5%,该算法在提升了安全帽佩戴检测速率的同时提升了检测的准确率,对安全帽佩戴检测具有一定的实用性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号