首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 97 毫秒
1.
在生产和作业场地中,工人由于不佩戴安全帽而引发的安全事故时有发生。为了降低由于未佩戴安全帽而引发的安全事故发生率,提出了一种基于改进YOLO v3算法的安全帽佩戴检测方法。通过采用图像金字塔结构获取不同尺度的特征图,用于位置和类别预测;使用施工现场出入口监控视频作为数据集进行目标框维度聚类,确定目标框参数;在训练迭代过程中改变输入图像的尺寸,增加模型对尺度的适应性。理论分析和实验结果表明,在安全帽佩戴检测任务中,mAP(Mean Average Precision)达到了92.13%,检测速率提高到62?f/s,其检测准确率与检测速率相较于YOLO v3均略有提高,所提算法不仅满足安全帽佩戴检测中检测任务的实时性,同时具有较高的检测准确率。  相似文献   

2.
针对YOLOv5无法通过权重进行聚焦,产生更具有分辨性的特征,从而降低安全帽检测准确性的问题,使用注意力模块,并分别研究压缩激励层(Squeeze and Excitation Layer, SEL)和高效通道注意力(Efficient Channel Attention, ECA)模块。针对YOLOv5去除冗余框时采用的非极大值抑制(Non Maximum Suppression, NMS)在物体高度重叠时仅保留同类最高置信度预测框的问题,使用Soft-NMS算法保留更多的预测框,并进一步使用加权非极大值抑制(Weighted Non Maximum Suppression, WNMS)融合多次预测框信息提升预测框准确性;针对下采样带来的信息丢失问题,使用Focus模块提升检测效果;综合各个模块得到最优的FESW-YOLO算法。该算法在安全帽数据集上的mAP@0.5、mAP@0.5:0.95相较于YOLOv5分别提高了2.1个百分点、1.2个百分点,提升了安全帽监管准确性。  相似文献   

3.
张锦  屈佩琪  孙程  罗蒙 《计算机应用》2022,42(4):1292-1300
针对现有安全帽佩戴检测干扰性强、检测精度低等问题,提出一种基于改进YOLOv5的安全帽检测新算法。首先,针对安全帽尺寸不一的问题,使用K-Means++算法重新设计先验框尺寸并将其匹配到相应的特征层;其次,在特征提取网络中引入多光谱通道注意力模块,使网络能够自主学习每个通道的权重,增强特征间的信息传播,从而加强网络对前景和背景的辨别能力;最后,在训练迭代过程中随机输入不同尺寸的图像,以此增强算法的泛化能力。实验结果表明,在自制安全帽佩戴检测数据集上,所提算法的均值平均精度(mAP)达到96.0%,而对佩戴安全帽的工人的平均精度(AP)达到96.7%,对未佩戴安全帽的工人的AP达到95.2%,相较于YOLOv5算法,该算法对佩戴安全帽的平均检测准确率提升了3.4个百分点,满足施工场景下安全帽佩戴检测的准确率要求。  相似文献   

4.
针对在智能监控中安全帽佩戴检测准确率低和检测速率慢的问题,提出一种基于改进YOLOv3(You Only Look Once)的安全帽佩戴检测算法YOLOv3-WH。在YOLOv3算法的基础上改进网络结构,增大输入图像的尺度,使用深度可分离卷积结构替换Darknet-53传统卷积,减少特征的丢失,缩减模型参数,提升检测速率;使用多尺度特征检测,增加浅层检测尺度,添加4倍上采样特征融合结构,提高安全帽佩戴检测准确率;优化[K]-Means聚类算法,获取安全帽佩戴检测的先验框(anchor box),按照预测尺度大小分配适合的anchor,提升模型训练和检测速率。实验结果表明YOLOv3-WH相比YOLOv3,每秒检测帧数(FPS)提高了64%,检测平均精确度(mAP)提高了6.5%,该算法在提升了安全帽佩戴检测速率的同时提升了检测的准确率,对安全帽佩戴检测具有一定的实用性。  相似文献   

5.
针对建筑施工场地场景下远距离小目标安全帽佩戴检测问题,提出的一种改进YOLOv4的安全帽检测方法。将BN层和卷积层合并减少修改后的网络前向推理计算量,利用K-means聚类算法改进先验框维度,采用柔性NMS算法进行置信度权重修改解决标签重写问题,应用多尺度特征融合提升模型识别准确率。实验结果表明,该方法在安全帽数据集的检测任务中mAP提升2.91%;对低于32*32尺寸目标AP值相较于原算法提升6.02%,能够有效提升安全帽佩戴检测范围和准确率。  相似文献   

6.
金雨芳  吴祥  董辉  俞立  张文安 《计算机科学》2021,48(11):268-275
安全生产管理是建筑、重工业等高危企业发展的重要方针,安全帽在施工生产环境中对人员头部防护起着关键作用,因此加强安全帽佩戴监管十分必要.近年来,基于图像视觉的安全帽佩戴监测方法成为了企业实施管理的主要手段,如何提高安全帽佩戴检测精度和检测速度是应用的关键难题.针对上述问题,文中提出了一种基于改进YOLO v4的安全帽佩戴检测算法.首先,在YOLO v4算法的3个特征图输出的基础上增加了 128×128特征图输出,从而将特征图输出的8倍下采样改为4倍下采样,为后续特征融合提供了更多小目标特征.其次,基于密集连接的思想对特征融合模块进行改进以实现特征重用,使得负责小目标检测的Yolo Head分类器可以结合不同层次特征层的特征,从而得到更好的目标检测分类结果.最后,对比实验的结果表明,所提方法的平均精度高达91.17%,相比原网络检测精度提高了 2.96%,检测速度基本不变,可达52.9 frame/s,从而在满足实时检测需求的同时可以得到更优的检测精度,有效实现了安全帽佩戴的高速高精度检测.  相似文献   

7.
佩戴安全帽对确保高危作业人员的生命安全至关重要。然而,由于施工现场活动范围广泛,从摄像头收集的安全帽图像具有相对较小、检测难度大的特点,容易出现漏检或错检的问题。因此,提出了一种基于改进YOLOv7的安全帽检测算法。使用Kmeans++算法聚类得到更优的先验边界框,在原YOLOv7中添加一个小目标检测层,同时加入卷积注意力机制模块(Convolutional Block Attention Module,CBAM),使网络更加关注输入图像的有效信息。为优化损失函数,使用Focal-EIoU替换了原YOLOv7网络模型中的完整的交并比(Complete Intersectionover Union,CIoU),从而减少损失函数自由度,提高模型性能。实验采用了百度飞桨公开的安全帽数据集进行训练。结果表明,改进算法的准确率达到92.2%,召回率达到91.6%,全类别平均正确率(mean Average Precision,mAP)提升1.4个百分点。提出的改进算法有效降低了漏检率及错检率,在安全帽佩戴检测中表现出良好的性能。  相似文献   

8.
9.
安全帽作为作业工人最基本的个体防护装备,对作业人员的生命安全具有重要意义.但是部分作业人员安全意识缺乏,不佩戴安全帽行为时常发生.本文聚焦于复杂场景下对工作人员是否佩戴安全帽的实时检测.YOLO (You Only Look Once)是当前最为先进的实时目标检测算法,在检测精度和速度上都取得了良好的效果,将YOLO应用于安全帽检测.针对未佩戴安全帽单类检测问题,修改分类器,将输出修改为18维度的张量.基于YOLOv3在ImageNet上的预训练模型,对实际场景下采集到的2010张样本进行标注并训练,根据损失函数和IOU曲线对模型进行优化调参,最终得到最优的安全帽检测模型.实验结果表明,在2000张图片测试集上取得了98.7%的准确率,在无GPU环境下平均检测速度达到了35 fps,满足实时性的检测要求,验证了基于YOLOv3安全帽检测方法的有效性.  相似文献   

10.
徐先峰  赵万福  邹浩泉  张丽  潘卓毅 《计算机工程》2021,47(10):298-305,313
针对真实场景下安全帽佩戴检测面临的背景复杂、干扰性强、待检测目标较小等问题,在SSD算法的基础上,提出改进的MobileNet-SSD算法。通过引入轻量型网络MobileNet并构建MobileNet-SSD算法提高检测速度,采用迁移学习策略克服模型训练困难问题。从施工相关视频中获取真实环境下的安全帽样本构建样本集,以解决当前安全帽数据集规模较小、网络难以充分拟合特征的问题。实验结果表明,MobileNet-SSD算法在损失很小精度的情况下,相较于SSD算法,检测速度提高了10.2倍。  相似文献   

11.
为了解决现有安全帽佩戴数据集样本数量有限导致模型检测精度较低的问题,提出一种基于场景增强的样本扩充算法。该算法将训练集中随机抽取的图像中的检测目标随机缩放后,粘贴到另一随机场景图像上的任意位置,基于现有场景构建出拥有新的检测目标的增强场景,通过场景增强扩充安全帽佩戴训练数据集,增加训练数据集的多样性。为了验证该算法在安全帽佩戴检测中的有效性,使用场景增强算法扩充HelmetWear数据集,并用其训练基于YOLO v4的安全帽佩戴检测模型,通过检测精度评估场景增强算法。在HelmetWear数据集上检测精度达到93.81%,检测精度提升了6.39个百分点。实验结果表明该算法能有效提升安全帽佩戴检测的精度,特别是在样本最为欠缺的小目标上表现更为显著;场景增强算法对解决其他领域目标检测训练数据不足的问题有重要的借鉴意义。  相似文献   

12.
在施工现场中, 安全帽能够减轻对头部的伤害, 且不同颜色的安全帽代表不同的身份, 基于当前施工现场通过视频监控来对工人安全帽的佩戴以及工种身份识别存在一定的耗时性, 不完全性, 监督效率低等问题, 本文提出了一种基于YOLOv4改进的安全帽佩戴检测以及身份识别的方法, 在原始的YOLOv4的基础之上, 使用K-means算法对先验框的大小重新进行聚类分析处理, 增加多尺度预测输出, 实现DIoU NMS进行非极大值抑制, 从而使工人安全帽佩戴及身份识别达到高效性, 全面性. 结果表明, 佩戴红、蓝、黄、白安全帽和未佩戴安全帽工人平均检测准确率达到92.1%, 从而保证能够实现对施工现场工人安全帽的佩戴达到一种实时监控.  相似文献   

13.
Safety helmet-wearing detection is an essential part of the intelligent monitoring system. To improve the speed and accuracy of detection, especially small targets and occluded objects, it presents a novel and efficient detector model. The underlying core algorithm of this model adopts the YOLOv5 (You Only Look Once version 5) network with the best comprehensive detection performance. It is improved by adding an attention mechanism, a CIoU (Complete Intersection Over Union) Loss function, and the Mish activation function. First, it applies the attention mechanism in the feature extraction. The network can learn the weight of each channel independently and enhance the information dissemination between features. Second, it adopts CIoU loss function to achieve accurate bounding box regression. Third, it utilizes Mish activation function to improve detection accuracy and generalization ability. It builds a safety helmet-wearing detection data set containing more than 10,000 images collected from the Internet for preprocessing. On the self-made helmet wearing test data set, the average accuracy of the helmet detection of the proposed algorithm is 96.7%, which is 1.9% higher than that of the YOLOv5 algorithm. It meets the accuracy requirements of the helmet-wearing detection under construction scenarios.  相似文献   

14.
人脸口罩佩戴检测是公共场所疫情防控中极为重要的措施,智能、高效地检测口罩佩戴情况对实现疫情防控的自动化和数字化具有重要意义。使用卷积类深度神经网络实现端到端的人脸口罩佩戴检测具有可行性,但卷积类神经网络具有结构复杂、参数量和浮点计算量庞大的特点,从而产生较高的计算开销和内存需求,极大地限制了其在资源有限的终端设备上的应用。为了使人脸口罩佩戴监督功能更易获取,并实现多尺度条件下的模型压缩和加速检测,提出一种基于改进YOLOv5的轻量化增强网络模型。设计参数量和计算量更小的GhostBottleneckCSP和ShuffleConv模块并替换原YOLOv5网络中的C3及部分Conv模块,以降低特征通道融合过程中的计算量并增强特征表达能力。实验结果表明,该模型的识别精度达95%以上,模型在精度近乎无损失的前提下,参数量和计算量分别仅为原YOLOv5网络的34.24%和33.54%,且在GPU和CPU上的运行速度分别提升13.64%和28.25%,降低了模型对内存存储及计算能力的要求,更适用于在资源有限的移动端部署。  相似文献   

15.
李庆忠  徐相玉 《计算机工程》2021,47(10):283-289,297
为实现海面船舰目标的快速、准确检测,提出一种改进的船舰目标检测算法。在网络结构方面根据船舰目标的特点,对浅层信息进行强化重构以降低小目标的漏检率,同时引入改进的残差网络增加网络深度和降低网络参数计算量,并且采用金字塔网络进行多尺度特征融合,以兼顾图像中大小船舰目标的检测性能。在网络训练中利用迁移学习策略进行网络模型的训练,以克服船舰图像样本集有限的问题。在视频检测中利用帧间图像结构相似度进行选择性网络前向计算,以提高视频帧检测速率。实验结果表明,该算法海面船舰目标检测的准确率达到92.4%,较YOLOV3-Tiny提高7个百分点,召回率达到88.6%,且在CPU平台上船舰目标的检测速度达到12 frame/s。  相似文献   

16.
为了提高卷积神经网络在目标检测的精度,本文提出了一种基于改进损失函数的YOLOv3网络.该网络模型应用一种新的损失函数Tan-Squared Error (TSE),将原有的平方和损失(Sum Squared Error,SSE)函数进行转化,能更好地计算连续变量的损失;TSE能有效减低Sigmoid函数梯度消失的影响,使模型收敛更加快速.在VOC数据集上的实验结果表明,与原网络模型的表现相比,利用TSE有效提高了检测精度,且收敛更加快速.  相似文献   

17.
为提高道路目标检测精度,基于YOLOv5网络模型,引入自底向上的PANet网络结构,以增强特征融合;采用具有方向感知与位置信息的目标注意力机制,以增强对目标位置的感知能力;增加了一个YOLO检测头,以增强对小目标的学习能力。采用改进的CIOU(ICIOU)目标回归损失函数,使得整个模型对图像特征的学习能力和目标检测精度显著提升。实验结果表明,该模型在华为SODA10M数据集下的mAP达到了68.2%,相比原YOLOv5网络mAP提升了15.4个百分点,检测精度得到了明显提升。在此基础上,对图像尺寸对检测时间和精度的影响进行探索,结果表明适当增大图像输入尺寸,可以在检测速度下降不大(23.3个百分点)的前提下,使得mAP明显提升(3.8个百分点)。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号