共查询到17条相似文献,搜索用时 46 毫秒
1.
佩戴安全帽是施工过程中人员安全的重要保障之一,但现有的人工检测不仅耗时耗力而且无法做到实时监测,针对这一现象,提出了一种基于深度学习的安全帽佩戴检测算法。该算法以YOLOv5s网络为基础。在网络的主干网中引入CoordAtt坐标注意力机制模块,考虑全局信息,使得网络分配给安全帽更多的注意力,以此提升对小目标的检测能力;针对原主干网对特征融合不充分的问题,将主干网中的残差块替换成Res2NetBlock结构中的残差块,以此提升YOLOv5s在细粒度上的融合能力。实验结果表明:在自制的安全帽数据集中验证可知,与原有的YOLOv5算法相比,平均精度提升了2.3个百分点,速度提升了18 FPS,与YOLOv3算法相比,平均精度提升了13.8个百分点,速度提升了95 FPS,实现了更准确的轻量高效实时的安全帽佩戴检测。 相似文献
2.
针对复杂施工环境下的安全帽佩戴检测模型存在误检和漏检问题,基于YOLOv5s实验,提出一种改进型目标检测算法SH-YOLO,用于检测施工现场中安全帽的佩戴情况。SH-YOLO方法基于YOLOv5s,在Backbone层嵌入SimAM注意力机制,在Backbone与Neck连接处使用SPPFCSPC方法来减少原模型的计算量和参数量。在自制的安全帽数据集上进行对比实验,结果表明,SHYOLO对安全帽的检测精度AP分别达到95.4%,较YOLOv5s分别提升6.7%,同时保持较低的参数量和较高的帧速。 相似文献
3.
针对现有安全帽佩戴检测干扰性强、检测精度低等问题,提出一种基于改进YOLOv5的安全帽检测新算法。首先,针对安全帽尺寸不一的问题,使用K-Means++算法重新设计先验框尺寸并将其匹配到相应的特征层;其次,在特征提取网络中引入多光谱通道注意力模块,使网络能够自主学习每个通道的权重,增强特征间的信息传播,从而加强网络对前景和背景的辨别能力;最后,在训练迭代过程中随机输入不同尺寸的图像,以此增强算法的泛化能力。实验结果表明,在自制安全帽佩戴检测数据集上,所提算法的均值平均精度(mAP)达到96.0%,而对佩戴安全帽的工人的平均精度(AP)达到96.7%,对未佩戴安全帽的工人的AP达到95.2%,相较于YOLOv5算法,该算法对佩戴安全帽的平均检测准确率提升了3.4个百分点,满足施工场景下安全帽佩戴检测的准确率要求。 相似文献
4.
佩戴安全帽对确保高危作业人员的生命安全至关重要。然而,由于施工现场活动范围广泛,从摄像头收集的安全帽图像具有相对较小、检测难度大的特点,容易出现漏检或错检的问题。因此,提出了一种基于改进YOLOv7的安全帽检测算法。使用Kmeans++算法聚类得到更优的先验边界框,在原YOLOv7中添加一个小目标检测层,同时加入卷积注意力机制模块(Convolutional Block Attention Module,CBAM),使网络更加关注输入图像的有效信息。为优化损失函数,使用Focal-EIoU替换了原YOLOv7网络模型中的完整的交并比(Complete Intersectionover Union,CIoU),从而减少损失函数自由度,提高模型性能。实验采用了百度飞桨公开的安全帽数据集进行训练。结果表明,改进算法的准确率达到92.2%,召回率达到91.6%,全类别平均正确率(mean Average Precision,mAP)提升1.4个百分点。提出的改进算法有效降低了漏检率及错检率,在安全帽佩戴检测中表现出良好的性能。 相似文献
5.
为减少一线工人由于未佩戴安全帽而造成的意外安全事故,提出一种改进YOLOv4网络和视频监控相结合检测佩戴安全帽的方法。采用聚类算法获取适用于安全帽数据集的先验框,通过对YOLO v4网络增加注意力机制模块聚焦安全帽特征,选用新的边界框回归损失函数CIoU提高检测精度,使用MAL(Multiple Anchor Learning)学习策略减少漏检概率。实验结果表明,改进后的方法在测试集上的mAP达到了96.32%,识别速率为每秒42帧,与YOLOv3算法相比提升了8.73百分点。该方法在安全帽佩戴检测中既满足视频监控的检测实时性的要求,还能较准确地检测一线工人是否佩戴安全帽。 相似文献
6.
对于钢铁制造业、煤矿行业及建筑行业等高危行业来说,施工过程中佩戴安全帽是避免受伤的有效途径之一.针对目前安全帽佩戴检测模型在复杂环境下对小目标和密集目标存在误检和漏检等问题,提出一种改进YOLOv5的目标检测方法来对安全帽的佩戴进行检测.在YOLOv5的主干网络中添加坐标注意力机制(coordinate attenti... 相似文献
7.
8.
在生产和作业场地中,工人由于不佩戴安全帽而引发的安全事故时有发生。为了降低由于未佩戴安全帽而引发的安全事故发生率,提出了一种基于改进YOLO v3算法的安全帽佩戴检测方法。通过采用图像金字塔结构获取不同尺度的特征图,用于位置和类别预测;使用施工现场出入口监控视频作为数据集进行目标框维度聚类,确定目标框参数;在训练迭代过程中改变输入图像的尺寸,增加模型对尺度的适应性。理论分析和实验结果表明,在安全帽佩戴检测任务中,mAP(Mean Average Precision)达到了92.13%,检测速率提高到62?f/s,其检测准确率与检测速率相较于YOLO v3均略有提高,所提算法不仅满足安全帽佩戴检测中检测任务的实时性,同时具有较高的检测准确率。 相似文献
9.
现有的YOLOv5模型无法精确检测出进入复杂施工现场内的人员佩戴安全帽问题,本文提出了一种基于YOLOv5的安全帽检测算法。模型的具体改进方法为:在主干网络中新增了一个小目标层P2和3-D注意力机制SimAM,提升算法的特征提取能力便于能够更容易检测出小目标;将边框损失函数CIoU_Loss改为SIo U_Loss,以提升对小目标检测的训练速度与精度,从而得到一种新的安全帽佩戴检测模型。实验结果显示,修改后的YOLOv5s算法大大提高了复杂工程现场安全帽检测的准确率,较原有的算法提高了1.4个百分点,mAP值达到了95.5%。 相似文献
10.
针对现有的对安全帽佩戴检测算法的参数多、网络复杂、计算量大、不利于在嵌入式等设备进行部署,且对遮挡目标辨别度差等问题,提出了一种改进的轻量级的安全帽检测算法YOLO-M3,先将YOLOv5s主干网络替换为MobileNetV3来进行特征提取,降低了网络的参数量和计算量.使用DIoU-NMS替换NMS,提高对遮挡目标的辨... 相似文献
11.
在施工现场中, 安全帽能够减轻对头部的伤害, 且不同颜色的安全帽代表不同的身份, 基于当前施工现场通过视频监控来对工人安全帽的佩戴以及工种身份识别存在一定的耗时性, 不完全性, 监督效率低等问题, 本文提出了一种基于YOLOv4改进的安全帽佩戴检测以及身份识别的方法, 在原始的YOLOv4的基础之上, 使用K-means算法对先验框的大小重新进行聚类分析处理, 增加多尺度预测输出, 实现DIoU NMS进行非极大值抑制, 从而使工人安全帽佩戴及身份识别达到高效性, 全面性. 结果表明, 佩戴红、蓝、黄、白安全帽和未佩戴安全帽工人平均检测准确率达到92.1%, 从而保证能够实现对施工现场工人安全帽的佩戴达到一种实时监控. 相似文献
12.
针对在智能监控中安全帽佩戴检测准确率低和检测速率慢的问题,提出一种基于改进YOLOv3(You Only Look Once)的安全帽佩戴检测算法YOLOv3-WH.在YOLOv3算法的基础上改进网络结构,增大输入图像的尺度,使用深度可分离卷积结构替换Darknet-53传统卷积,减少特征的丢失,缩减模型参数,提升检测... 相似文献
13.
为了解决在实际道路场景中对摩托车驾乘者头盔佩戴情况的检测与跟踪问题,提出一种优化的DeepSORT多目标跟踪摩托车头盔检测算法。使用改进的YOLOv3算法作为目标检测器,该方法采用MobileNetv3-Large作为YOLOv3特征提取网络,以轻量化网络结构,借鉴CEM模块的思想,引入SoftPool池化层和SE模块,构建了深浅语义融合增强模块,加强网络对输入特征深浅语义的编码能力。为了实现摩托车头盔佩戴分类和DeepSORT算法中外观特征识别模型的优化,构建多任务学习框架,通过对比损失函数和改进的交叉损失函数对多任务网络进行迭代训练来提升相似度学习能力和实现最终头盔佩戴情况分类。实验结果表明:在目标检测方面,改进网络的摩托车检测精度相较原始算法提升了4.56个百分点,模型大小仅为YOLOv3的13.7%。结合DeepSORT算法,多目标跟踪准确率相较于YOLOv3-DeepSORT算法从51.6%提升到了67.5%,多目标跟踪精度从57.3%提升到75.6%,检测追踪速度由6 FPS提升到了20 FPS,最终的NPH模型检测分类精度为72.42%。实现了对实际道路中摩托车驾乘人员头... 相似文献
14.
佩戴安全帽能够保护生产工作者头部免受坠物撞击带来的伤害。轧钢车间存在空间跨度大、作业设备繁多、环境杂乱、昼夜光照差别大、炫光、监控目标尺度变化范围大等问题,增加了安全帽佩戴检测难度。针对上述问题,设计了基于改进YOLOv7模型的轧钢车间安全帽佩戴检测方案;算法基于NWD方法改进损失函数以提高目标检测精度,并在SPPCSPC模块上增加了BiFormer模块,使模型对小目标具有更好的检测精度,同时不会增加运算负担,优于其他注意力机制。在自建安全帽数据集上对改进的YOLOv7模型进行训练,实验表明,改进的YOLOv7模型平均精度均值为99.3%,检测速度达82FPS,与其他主流算法、改进算法对比,改进YOLOv7的mAP指标最高,大大超过了其他模型的指标,同时检测速度基本与改进模型前相差不大,并没有因为精度提高而明显降低检测速度,有较好效果。 相似文献
15.
Safety helmet-wearing detection is an essential part of the intelligent monitoring system. To improve the speed and accuracy of detection, especially small targets and occluded objects, it presents a novel and efficient detector model. The underlying core algorithm of this model adopts the YOLOv5 (You Only Look Once version 5) network with the best comprehensive detection performance. It is improved by adding an attention mechanism, a CIoU (Complete Intersection Over Union) Loss function, and the Mish activation function. First, it applies the attention mechanism in the feature extraction. The network can learn the weight of each channel independently and enhance the information dissemination between features. Second, it adopts CIoU loss function to achieve accurate bounding box regression. Third, it utilizes Mish activation function to improve detection accuracy and generalization ability. It builds a safety helmet-wearing detection data set containing more than 10,000 images collected from the Internet for preprocessing. On the self-made helmet wearing test data set, the average accuracy of the helmet detection of the proposed algorithm is 96.7%, which is 1.9% higher than that of the YOLOv5 algorithm. It meets the accuracy requirements of the helmet-wearing detection under construction scenarios. 相似文献
16.
佩戴安全帽是防止施工现场工作人员头部损伤的有效方法之一,然而现有安全帽检测算法多存在重叠目标检测难度大、小目标漏检率高等缺点。为此,提出了一种通过融合自注意力机制来改进Faster R-CNN的目标检测算法,用于安全帽检测。通过自注意力层来捕获多个尺度上的全局信息,得到更丰富的高层语义特征并将更大的感受野范围引入模型,在区域建议网络(RPN)的训练中通过锚框补选增强的方法让小目标信息得到更多的训练,强化了网络对于小尺度目标的表达能力。实验结果表明:改进后的算法在安全帽佩戴检测上的mAP值较传统Faster R-CNN提高了6.4个百分点,对于不同场景不同尺度的安全帽有着较好的检测效果。 相似文献
17.
安全帽作为施工场所工人的安全保障,佩戴与否影响着工人的生命安全。在佩戴检测方面引入深度学习可以高效地提醒工人佩戴安全帽。但由于施工图像中安全帽的图像过小,CenterNet表现得并不好。因此针对这个情况,提出了FPN-CenterNet框架;使用ACNet非对称卷积核来对主干网络的特征提取进行增强;使用DIoU损失函数来优化边框预测的准确度。最终修改的算法相较于原始的CenterNet算法mAP提升了4.99个百分点,在GTX GeForce 1050的GPU上的FPS达到25.81。实验结果表明修改之后的算法在安全帽佩戴检测上有良好的准确性和效率。 相似文献