首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 62 毫秒
1.
佩戴安全帽对确保高危作业人员的生命安全至关重要。然而,由于施工现场活动范围广泛,从摄像头收集的安全帽图像具有相对较小、检测难度大的特点,容易出现漏检或错检的问题。因此,提出了一种基于改进YOLOv7的安全帽检测算法。使用Kmeans++算法聚类得到更优的先验边界框,在原YOLOv7中添加一个小目标检测层,同时加入卷积注意力机制模块(Convolutional Block Attention Module,CBAM),使网络更加关注输入图像的有效信息。为优化损失函数,使用Focal-EIoU替换了原YOLOv7网络模型中的完整的交并比(Complete Intersectionover Union,CIoU),从而减少损失函数自由度,提高模型性能。实验采用了百度飞桨公开的安全帽数据集进行训练。结果表明,改进算法的准确率达到92.2%,召回率达到91.6%,全类别平均正确率(mean Average Precision,mAP)提升1.4个百分点。提出的改进算法有效降低了漏检率及错检率,在安全帽佩戴检测中表现出良好的性能。  相似文献   

2.
张锦  屈佩琪  孙程  罗蒙 《计算机应用》2022,42(4):1292-1300
针对现有安全帽佩戴检测干扰性强、检测精度低等问题,提出一种基于改进YOLOv5的安全帽检测新算法。首先,针对安全帽尺寸不一的问题,使用K-Means++算法重新设计先验框尺寸并将其匹配到相应的特征层;其次,在特征提取网络中引入多光谱通道注意力模块,使网络能够自主学习每个通道的权重,增强特征间的信息传播,从而加强网络对前景和背景的辨别能力;最后,在训练迭代过程中随机输入不同尺寸的图像,以此增强算法的泛化能力。实验结果表明,在自制安全帽佩戴检测数据集上,所提算法的均值平均精度(mAP)达到96.0%,而对佩戴安全帽的工人的平均精度(AP)达到96.7%,对未佩戴安全帽的工人的AP达到95.2%,相较于YOLOv5算法,该算法对佩戴安全帽的平均检测准确率提升了3.4个百分点,满足施工场景下安全帽佩戴检测的准确率要求。  相似文献   

3.
李维娜  李爽 《软件》2023,(3):179-183
现有的YOLOv5模型无法精确检测出进入复杂施工现场内的人员佩戴安全帽问题,本文提出了一种基于YOLOv5的安全帽检测算法。模型的具体改进方法为:在主干网络中新增了一个小目标层P2和3-D注意力机制SimAM,提升算法的特征提取能力便于能够更容易检测出小目标;将边框损失函数CIoU_Loss改为SIo U_Loss,以提升对小目标检测的训练速度与精度,从而得到一种新的安全帽佩戴检测模型。实验结果显示,修改后的YOLOv5s算法大大提高了复杂工程现场安全帽检测的准确率,较原有的算法提高了1.4个百分点,mAP值达到了95.5%。  相似文献   

4.
对于配电线网施工作业这一类高危行业而言,在施工过程中按照安全守则佩戴安全帽是避免事故发生的有效途径之一。由于配电线网施工环境复杂多变,导致现有的安全帽识别方法在自然场景下常出现误检漏检的问题且不能满足实时性需求。为提高自然场景下的安全帽识别准确率以及识别效率,提出一种面向自然场景下配电线网施工的安全帽佩戴识别检测网络模型YOLO-ACON-Attention。该方法以YOLOv5算法为基础,采用自适应判断激活函数取代原有的激活函数,加强模型检测能力。在骨干网络中使用二轮四向IRNN网络构造自适应注意力模块提升模型的图像信息特征提取能力。实验结果证明,与原YOLOv5算法相比,该算法的精确率和召回率为94.75%和89.29%,分别提高了7.65%和5.17%,检测速度为36.5 FPS。  相似文献   

5.
佩戴安全帽是防止施工现场工作人员头部损伤的有效方法之一,然而现有安全帽检测算法多存在重叠目标检测难度大、小目标漏检率高等缺点。为此,提出了一种通过融合自注意力机制来改进Faster R-CNN的目标检测算法,用于安全帽检测。通过自注意力层来捕获多个尺度上的全局信息,得到更丰富的高层语义特征并将更大的感受野范围引入模型,在区域建议网络(RPN)的训练中通过锚框补选增强的方法让小目标信息得到更多的训练,强化了网络对于小尺度目标的表达能力。实验结果表明:改进后的算法在安全帽佩戴检测上的mAP值较传统Faster R-CNN提高了6.4个百分点,对于不同场景不同尺度的安全帽有着较好的检测效果。  相似文献   

6.
为减少一线工人由于未佩戴安全帽而造成的意外安全事故,提出一种改进YOLOv4网络和视频监控相结合检测佩戴安全帽的方法。采用聚类算法获取适用于安全帽数据集的先验框,通过对YOLO v4网络增加注意力机制模块聚焦安全帽特征,选用新的边界框回归损失函数CIoU提高检测精度,使用MAL(Multiple Anchor Learning)学习策略减少漏检概率。实验结果表明,改进后的方法在测试集上的mAP达到了96.32%,识别速率为每秒42帧,与YOLOv3算法相比提升了8.73百分点。该方法在安全帽佩戴检测中既满足视频监控的检测实时性的要求,还能较准确地检测一线工人是否佩戴安全帽。  相似文献   

7.
遥感图像的复合目标相对单一目标而言,存在多个结构,结构之间存在一定差异。本文围绕复合目标多变性、复杂性,大宽幅遥感影像背景复杂,存在较多和待检复合目标特征相似的区域,检测准确率较低等问题,开展基于高分辨率遥感图像的复合目标检测研究。首先开展目标特性分析和样本数据标注;然后提出一种基于Coordinate Attention注意力机制和Focal Loss损失函数的改进YOLOv3检测算法;最后以篮球场这种复合目标为例进行实验。实验结果表明,改进后的算法与原YOLOv3算法相比,召回率和平均检测准确率分别提高了10.3个百分点和28.8个百分点。该结果验证了所提方案的可行性、合理性。  相似文献   

8.
小目标检测作为目标检测中一项极具挑战性的项目, 广泛分布于日常生活中, 在视频监控场景中, 距离摄像头约20 m远处的行人人脸就可以被认为是小目标. 由于人脸可能相互遮挡并容易受到噪声和天气光照条件的影响, 现有的目标检测模型在这类小目标上的性能劣于中大型目标. 针对此类问题, 本文提出了改进后的YOLOv7模型, 添加了高分辨率检测头, 并基于GhostNetV2对骨干网络进行了改造; 同时基于BiFPN和SA注意力模块替换PANet结构, 增强多尺度特征融合能力; 结合Wasserstein距离改进了原来的CIoU损失函数, 降低了小目标对锚框位置偏移的敏感性. 本文在公开数据集VisDrone2019以及自制的视频监控数据集上进行了对比实验. 实验表明, 本文提出的改进方法mAP指标在VisDrone2019数据集上提高到了50.1%, 在自制视频监控数据集上高于现有方法1.6个百分点, 有效提高了小目标检测的能力, 并在GTX1080Ti上达到了较好的实时性.  相似文献   

9.
针对交通场景中由光照、遮挡、目标小以及背景复杂等因素导致目标检测精度低,易出现漏检和误检问题的情况,提出了一种基于YOLOv7的交通目标检测算法;该算法在主干网络中融入多头注意力机制,以增强网络特征学习能力,从而更好地捕获数据和特征内部的相关性;在YOLOv7颈部网络引入协调注意力模块(CA),将位置信息嵌入到注意力机制中,忽略无关信息的干扰,以增强网络的特征提取能力;增加一个多尺度检测网络,以增强模型对不同尺度目标的检测能力;将CIoU损失函数更改为SIoU函数,以减少模型收敛不稳定问题,提高模型的鲁棒性;实验结果表明,改进的算法在BDD100K公开数据集上的检测精度和速度分别达到了59.8% mAP和96.2 FPS,相比原算法检测精度提高了2.5%;这表明改进的算法在满足实时性要求的同时,具备良好的检测精度,适用于复杂情况下的交通目标检测任务。  相似文献   

10.
针对复杂施工环境下的安全帽佩戴检测模型存在误检和漏检问题,基于YOLOv5s实验,提出一种改进型目标检测算法SH-YOLO,用于检测施工现场中安全帽的佩戴情况。SH-YOLO方法基于YOLOv5s,在Backbone层嵌入SimAM注意力机制,在Backbone与Neck连接处使用SPPFCSPC方法来减少原模型的计算量和参数量。在自制的安全帽数据集上进行对比实验,结果表明,SHYOLO对安全帽的检测精度AP分别达到95.4%,较YOLOv5s分别提升6.7%,同时保持较低的参数量和较高的帧速。  相似文献   

11.
在工业生产中,安全帽对人体头部提供了较好的安全保障。在现场环境中,检验施工人员是否佩戴安全帽主要依靠人工检查,因而效率非常低。为了解决施工现场安全帽检测识别难题,提出一种基于深度级联网络模型的安全帽检测方法。首先通过You Only Look Once version 4 (YOLOv4)检测网络对施工人员进行检测;然后运用注意力机制残差分类网络对人员ROI区域进行分类判断,识别其是否佩戴安全帽。该方法在Ubuntu18.04系统和Pytorch深度学习框架的实验环境中进行,在自主制作工业场景安全帽数据集中进行训练和测试实验。实验结果表明,基于深度级联网络的安全帽识别模型与YOLOv4算法相比,准确率提高了2个百分点,有效提升施工人员安全帽检测效果。  相似文献   

12.
安全帽作为作业工人最基本的个体防护装备,对作业人员的生命安全具有重要意义.但是部分作业人员安全意识缺乏,不佩戴安全帽行为时常发生.本文聚焦于复杂场景下对工作人员是否佩戴安全帽的实时检测.YOLO (You Only Look Once)是当前最为先进的实时目标检测算法,在检测精度和速度上都取得了良好的效果,将YOLO应用于安全帽检测.针对未佩戴安全帽单类检测问题,修改分类器,将输出修改为18维度的张量.基于YOLOv3在ImageNet上的预训练模型,对实际场景下采集到的2010张样本进行标注并训练,根据损失函数和IOU曲线对模型进行优化调参,最终得到最优的安全帽检测模型.实验结果表明,在2000张图片测试集上取得了98.7%的准确率,在无GPU环境下平均检测速度达到了35 fps,满足实时性的检测要求,验证了基于YOLOv3安全帽检测方法的有效性.  相似文献   

13.
针对施工环境下安全帽数据集少,被检测物体目标小和现有检测模型参数量大导致的模型鲁棒性差,准确率低,训练时间长问题,提出了一种改进YOLOX网络的安全帽检测方法。使用在线困难样本挖掘(OHEM)寻找数据集中的困难样本,结合马赛克(Mosaic)方法对困难样本拼接来扩充训练集数量;在模型预测端(prediction)加入分支注意力模块,将网络输出分为两部分输入模块来提取空间层面和通道层面上关键信息;提出一种新的余弦退火算法,初始时加入预热(warm up),过程中逐段减小学习率曲线的振荡幅度,训练中减小模型的收敛时间。实验结果表明,与原方法相比,改进安全帽检测方法对安全帽检测的mAP、准确率、召回率分别提高了6.77、2.52、9.14个百分点,训练中使用CDWR余弦退火算法在同周期下损失值减少了0.5~1.0,与原算法相比训练收敛时间减少约50%。  相似文献   

14.
徐先峰  赵万福  邹浩泉  张丽  潘卓毅 《计算机工程》2021,47(10):298-305,313
针对真实场景下安全帽佩戴检测面临的背景复杂、干扰性强、待检测目标较小等问题,在SSD算法的基础上,提出改进的MobileNet-SSD算法。通过引入轻量型网络MobileNet并构建MobileNet-SSD算法提高检测速度,采用迁移学习策略克服模型训练困难问题。从施工相关视频中获取真实环境下的安全帽样本构建样本集,以解决当前安全帽数据集规模较小、网络难以充分拟合特征的问题。实验结果表明,MobileNet-SSD算法在损失很小精度的情况下,相较于SSD算法,检测速度提高了10.2倍。  相似文献   

15.
施工人员佩戴安全帽是安全生产的重要一环,为保障工人生命安全,同时克服传统人工巡检费时费力的缺点,提出了一种基于Single Shot MultiBox Detector(SSD)改进的安全帽检测新方法.针对安全帽数据集内目标尺度偏小,尺度分布不均衡,对SSD模型结构进行改进,添加用以特征融合的分支网络,增强浅层特征图语...  相似文献   

16.
在生产和作业场地中,工人由于不佩戴安全帽而引发的安全事故时有发生。为了降低由于未佩戴安全帽而引发的安全事故发生率,提出了一种基于改进YOLO v3算法的安全帽佩戴检测方法。通过采用图像金字塔结构获取不同尺度的特征图,用于位置和类别预测;使用施工现场出入口监控视频作为数据集进行目标框维度聚类,确定目标框参数;在训练迭代过程中改变输入图像的尺寸,增加模型对尺度的适应性。理论分析和实验结果表明,在安全帽佩戴检测任务中,mAP(Mean Average Precision)达到了92.13%,检测速率提高到62?f/s,其检测准确率与检测速率相较于YOLO v3均略有提高,所提算法不仅满足安全帽佩戴检测中检测任务的实时性,同时具有较高的检测准确率。  相似文献   

17.
为了解决现有安全帽佩戴数据集样本数量有限导致模型检测精度较低的问题,提出一种基于场景增强的样本扩充算法。该算法将训练集中随机抽取的图像中的检测目标随机缩放后,粘贴到另一随机场景图像上的任意位置,基于现有场景构建出拥有新的检测目标的增强场景,通过场景增强扩充安全帽佩戴训练数据集,增加训练数据集的多样性。为了验证该算法在安全帽佩戴检测中的有效性,使用场景增强算法扩充HelmetWear数据集,并用其训练基于YOLO v4的安全帽佩戴检测模型,通过检测精度评估场景增强算法。在HelmetWear数据集上检测精度达到93.81%,检测精度提升了6.39个百分点。实验结果表明该算法能有效提升安全帽佩戴检测的精度,特别是在样本最为欠缺的小目标上表现更为显著;场景增强算法对解决其他领域目标检测训练数据不足的问题有重要的借鉴意义。  相似文献   

18.
在施工现场中, 安全帽能够减轻对头部的伤害, 且不同颜色的安全帽代表不同的身份, 基于当前施工现场通过视频监控来对工人安全帽的佩戴以及工种身份识别存在一定的耗时性, 不完全性, 监督效率低等问题, 本文提出了一种基于YOLOv4改进的安全帽佩戴检测以及身份识别的方法, 在原始的YOLOv4的基础之上, 使用K-means算法对先验框的大小重新进行聚类分析处理, 增加多尺度预测输出, 实现DIoU NMS进行非极大值抑制, 从而使工人安全帽佩戴及身份识别达到高效性, 全面性. 结果表明, 佩戴红、蓝、黄、白安全帽和未佩戴安全帽工人平均检测准确率达到92.1%, 从而保证能够实现对施工现场工人安全帽的佩戴达到一种实时监控.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号